Przytaczam tu wnioski z artykułu zamieszczonego w kwietniowym numerze Digital Foto Video 2008. Tytuł artykułu "Ile megapixeli ma sens ?", autor Marcin Bójko. Według mnie rewelacyjny artykuł. Dziękuję Panie Marcinie.
Kilka
podstawowych wniosków.
Ilość
rejestrowanych szczegółów wzrasta z ilością pixeli matrycy ale tylko do
pewnych granic. Przy dużym zagęszczeniu pixeli na matrycy obiektyw nie
daje rady. Obiektyw może mieć zbyt małą rozdzielczość aby stworzyć odpowiedniej
jakości (gęstości) obraz. Może to wynikać ze słabej jakości obiektywu ale
może też być ogranoiczone prawami optyki. Producenci dotarli już do granic
wynikających z zasad optyki a tych nikt nie przeskoczy.
Od
czego więc zależy rzeczywista ilość szczegółów rejestrowanych na zdjęciach
?
1.
Teoretycznie (dla obiektywu idealnego) od jasności obiektywu. Im jaśniejszy
obiektyw tym więcej szczegółów można zarejestrować. W praktyce ograniczenia
wykonawcze powodują że przy dużych jasnościach teoretyczna jakość obiektywu
jest nieosiągalna.
2.
Od geometrycznej wielkości matrycy. Im większa matryca tym mniejsze zagęszczenie
pixeli i obiektyw może być "gorszy".
3.
Im mniejsze pixele na matrycy (mała matryca gęsto pocięta) tym mniejsza
czułość. Na małe pole pada mniej swiatła. Pojawia się problem szumu redukowany
elektronicznie ale jednocześnie zmniejsza się ilość szczegółów na obrazie.
4.
Aparat cyfrowy przed matrycą musi mieć tzw. "filtr antyaliasingowy" zwany
też "dolnoprzepustowy". Filtr delikatnie mówiąc nie pomaga w osiągnięciu
maksymalnej rozdzielczości. W praktyce jest to filtr rozmywający obraz
aby układ elektroniczny "nie zgłupiał" na pewnych wzorkach. Podobny problem
jak w telewizorze marynarka w pepitkę.
5.
Różne kolory dają różne rozdzielczości co wynika z długości fali. Najgorsze
parametry wychodzą przy kolorze czerwonym.
Aparaty kompaktowe |
|
Lustrzanki z matryca typu APS-C |
|
Lustrzanki cyfrowe pełnoklatkowe |
Kompletny artykuł można znaleźć
tu (jpgi po ok. 500KB):
strony 1,
2,
3,
4,
5,
6.