<< Wróc do Maszynowni
Wszechstronny test
aparatu Canomatic
Odnośniki gdzie indziej
Punktowy pomiar światła
dla opornych
Profile ICC - poradnik dla humanistów, poetów
i duszpasterzy
"Wykłady gościnne" Marka Lewandowskiego
Zniekształcenia perspektywiczne -
- czyli kwestia szkiełka
|
|
Jaką wielkość ma piksel? - > No właśnie :-)
> Milimetr mogę sobie zobaczyć, gram wziąć w rękę itd,
> a jaką wielkość ma piksel?
> Wiem, że 1 piksel, ale może ktoś poda w
> jakichś sensowniejszych jednostakch :-) Już chyba każdy napisał co o tym sądzi, więc ja - nie wnikając co gdzie i kiedy - spróbuję to trochę usystematyzować.
Pixel jest bezpośrednim zlepkiem od Picture Element, czyli fragment obrazu. Jest w technice cyfrowej tym samym dla obrazu, czym próbka (sample) dla dźwięku. Przyrównać to można w pewnym sensie do pojedynczego ziarna emulsji - mniejszego detalu nie zarejestrujesz.
Geometrycznego sensu pixel nie ma. Jego najbliższym odpowiednikiem jest - często mylnie nazywane pixelem - "photosite" matrycy, czyli pojedynczy czujnik światła.
Rozważmy przez chwilę drogę sygnału od momentu, gdy jest światłem odbijającym się po scenie, do momentu, gdy zostanie przedstawiony na odbitce "cyfrowej". Dla uproszczenia zanalizujmy tylko jedną "linię" obrazu, żeby uniknąć złożoności związanej z odwzorowaniem R2[x,y]->R3[Y,U,V].
Przyjmijmy też do wiadomości, że mimo, iż oko ludzkie wyposażone jest w sensory składowych R, G i B, to uklad oko+mózg postrzega obraz w kategoriach luminancji (jasność) i chrominancji (barwa). Ujmujac to nieco analogowo nasze oczy widzą jak "kanapka" z drobnoziarnistego i wysokoczułego materiału cz/b z podłożonym chamskim, ziarnistym negatywem ORWO przeterminowanym o trzydziesci lat.
Co jest zadaniem techniki w fotografii? Wziąć rozkład jasności i barwy w scenie tak, jak "widzi" to optyka kamery i "zamrozić" a nastepnie odtworzyć dla widza. Biorac pojedynczy "plasterek" sceny dostajemy linię o wahającej się luminancji i chrominancji.
Te zmiany należy zarejestrować. W analogu ta linia pada na warstwę(-y) emulsji
swiatłoczułej i prowadzi do odpowiedniego zaczernienia/zabarwienia/zasyfienia/whatever przezroczystego negatywu. W technice cyfrowej rozkład musi zostać zdyskretyzowany przestrzennie i amplitudowo, tzn. należy zmierzyc wartość (natężenie) padającego światła w (najlepiej) równych odstępach, a zmierzone wartości zamienić na liczby całkowite. Każda taka kompletna próbka to pojedynczy pixel.
W przypadku normalnych matryc krzemowych kwantyzacja przestrzenna załatwiona jest przez podział powierzchni swiatłoczułej na poletka o określonej powierzchni i lokalizacji. Kwantyzacja wartości jest załatwiana za nas, bo swiatło ma naturę dyskretną i pół fotonu paść nie może, ergo, liczba elektronów musi być całkowita. Ponieważ liczenie elektronów odbywa się w sposób niedokładny, to efektywna rozdzielczość kwantyzacji amplitudy spada o następne n rzędów wielkośsci, n > 0.
Ponieważ pixele są monochromatyczne, to na każdy photosite dostajemy przybliżoną informację o luminancji, ale dla info o chromie potrzeba kwadratu 4 pixeli, ergo, zapisanie 4MPIX na podstawie info z 4MPHOTOSITES jest lekkim naciąganiem, ale zostało uwzględnione np. w zapisie JPEG, który domyślnie na 4 pixele zapisuje lumę o 4, a chromę o 2, lub wręcz tylko o 1 (zapis 4:2:2 i 4:1:1, znane również jako color channel subsample).
Teraz nalezy sobie przypomnieć twierdzenia Nyquista i tak dalej, to znaczy, jeśli bierzemy n próbek na jednostkę długości, to najmniejszy dostrzegalny detal nie powinien być mniejszy niz 2x[jednostka]/n, ergo, primo, sygnał należy przed samplowaniem filtrować (rozmazując lekko detale, czyli zacierając szczegóły zbyt małe do poprawnego zanalizowania), secundo, filtrowanie należy zaprowadzić również przy odtwarzaniu.
Mianowicie postrzeganie pixela jako kwadracika jednej barwy jest bzdurą:
sugeruje, że mogliśmy zaobserwować i zapisać tak drobny detal, jak raptowną zmianę
koloru przy przejściu od 1 do 2 photosite.
Przy naświetlaniu papieru jest to oczywiste: nie ma doskonałych obiektywów, więc jeśli wyświetlimy nasze zdjęcie "kwadracikami" na papier, to na papier już nie dojdą kwadraciki, tylko nieco rozmyte plamki i przy odpowiednim rozmyciu zdjęcie będzie wyglądało ostro. Na monitorze CRT sprawa jest jeszcze prostsza: sygnał cyfrowy - wartości kolejnych pixeli - zamieniany jest na analogowy (wartość napięcia sterującego działem elektronowym), filtrowany i pchany w rurę, ergo nie ma szans na schodki. To jest też przyczyna, dla której fotografie na monitorze LCD podpiętym po DVI wyglądają koszmarnie - brakuje filtrowania kantów na wyjściu, sygnał jest odtwarzany bez ograniczenia pasma i widać w nim szum kwantyzacji - ostre krawędzie pixeli.
Jaśniej?
;P
Autorem artykułu jest Marek Lewandowski
http://lwow.home.pl/photoblog/
|