<< Wróc do Maszynowni
Wszechstronny test
aparatu Canomatic
Odnośniki gdzie indziej
Punktowy pomiar światła
dla opornych
Profile ICC - poradnik dla humanistów, poetów
i duszpasterzy
"Wykłady gościnne" Marka Lewandowskiego
Zniekształcenia perspektywiczne -
- czyli kwestia szkiełka
|
|
O kolorów widzeniu
O czym dzisiaj? A niech będzie, że pociągniemy dalej temat matryc. Ale nie przejdę od razu do CMOS, tylko będzie skok w bok, achronologicznie, alogicznie itp. Będzie o kolorze, dynamice i postrzeganiu barw. Myślę, że tutaj Jacek Zagaja miałby wiele do powiedzenia, na pewno mnie zgani za pobieżność, ale niech będzie, że to dla tych mniej kumatych :)
Zeby zrozumieć fotografię, trzeba zrozumieć własne oczy. Czyli zgłębić nieco zasadę kolorowego widzenia. No dobra, widzenia w ogóle.
Zacznijmy od tego, że nasze oczy nie są prawie wcale czułe na kolor. Tak, dobrze słyszeliście, jasne, to jest przesadzone. Jednak naprawdę widzimy dużo wyraźniej jasność, niż barwy. Prędzej możemy rozróżnić dwie kropki obok siebie, niż to, że jedna jest czerwona a druga zielona. To sobie przyjmijmy za fakt i nie wnikajmy na razie dalej, na to przyjdzie jeszcze czas.
Wspomniałem coś o kolorach...
Mamy 3 rodzaje sensorów koloru w oku. Czerwony, zielony i niebieski... prrr! Stop. Tak nas nauczono mówić i to wpada już w regułę. To nie są sensory reagujące na kolor!
Co to jest kolor? Światło to mieszanka różnej długości fal elektromagnetycznych. Trochę podobnie do dźwięku, który jest falą mechaniczną (uproszczenia warning).
Różne barwy głosu składają się z różnych tonów. Dudnienie basu to głównie, ale nie
wyłącznie, niskie tony. Wycie podstarzałej i przygłuchej śpiewaczki operowej to raczej tony wysokie. Bardzo rzadko spotyka się czyste, płaskie dźwięki w naturze - to raczej wytwór cywilizacji. Podnieś słuchawkę - ten ton to 440Hz, jednolity, monotonny. Podobnie jest ze światłem: niemalże nie ma w naturze światła o jednej jedynej, czystej długości fali. Blisko tego są lasery, ale trudno zaliczyć je do natury :) Barwa światła to to, jakie długości fal są w nim obecne. Jest nieskończenie wiele kombinacji.
Nasze "sensory" światła nie są bardzo selektywne (tak się mówi o sensorze, który reaguje tylko na jeden rodzaj "sygnału" - tu na jedną długość fali). To, o czym mówimy, że reaguje na zielone, "piszczy" najsilniej oświetlone światłem w okolicach 560nm, a dużo słabiej "po bokach" - w kierunku 400 czy 700nm. Dużo słabiej, to nie znaczy, że wcale! Jeśli oświetlimy nasz "zielony" czujnik światłem czerwonym (okolice 660-750nm) lub niebieskim (450nm) też zareaguje. Tylko słabiej.
Dzięki temu możemy w ogóle widzieć tęczę.
Weźmy teraz dla przykładu światło żółte. 575-600nm.
Pobudzi zarówno nasz "zielony" jak i nasz "czerwony" fotodetektor. Mózg zakłada, że jest to światło żółte.
Jeśli weźmiemy dwie lampki, czerwoną i zieloną i umieścimy blisko siebie, zobaczymy je z daleka jako żółtą. Jeśli zaczniemy je oddalać od siebie, to patrząc na nie kątem
oka (a nie centralnie) najpierw rozdzielą się nam na dwie żółte lampki, a dopiero
potem staną zieloną i czerwoną. Mieszanka czerwonego i zielonego drażni w równym
stopniu receptory "czerwony" i "zielony". Tak samo, jak żółte światło. Mimo iż
"kolor" ("skład" światła) się zmienił, jego percepcja - nie.
No dobra. Mam nadzieję, że przynajmniej z gruntu się zrozumieliśmy. Czas pójść dalej. Na razie porozmawialiśmy sobie o kolorze światła. Ale co nas najczęściej interesuje na zdjęciu to kolory przedmiotów!
Co to znaczy, że powierzchnia ma jakiś kolor?
W zależności od swojej struktury materiały odbijają różne długości fali różnie.
Czerwony kapturek odbija bardzo dobrze światło z okolic "czerwieni" (680nm) i dużo
gorzej światło "niebieskie" (okolice 450nm). W świetle dziennym zobaczymy go jako
czerownego. Zauważcie, że napisałem "w świetle dziennym". To, jak postrzegamy
kolory sceny zależy od światła, które ją oświetla! Jeśli weźmiemy silnie monochromatyczną lampę świecącą na niebiesko, to... kapturek "zmieni kolor". Po prostu ten czerwony materiał źle odbija światło niebieskie, ale jednak odbija, a z kolei światła czerwonego, które odbija bardzo dobrze, nasza lampa nie wysyła "w ogóle", więc do oka dochodzi tylko odbite, słabe, niebieskie światło i drażni je tak, że widzimy... ciemny, niebieski kapturek.
W pewnych granicach nasz mózg kompensuje ten wpływ. Jeśli światło nie jest tak silnie "zabarwione", a w scenie znajdują się przedmioty o znanych barwach, mózg automatycznie rozpozna kolor światła i "odejmie" go od tego, co melduje oko. Dzięki temu biała kartka wydaje się biała i rano i w południe i wieczorem. To się fachowo nazywa balans bieli. Ten biologiczny...
Jeśli użyjemy perfekcyjnego urządzenia, które "zamrozi" wpadające do oka światło, tak jak ono jest, idealnie, i przeniesie jakoś na papier, to takie "aptekarskie" zdjęcie będzie wyglądało źle.
Dlaczego?
Póki jesteśmy "w scenie", działa wbudowana w nasz mózg kompensacja koloru światła. Jeśli oglądamy to samo na papierze, przeważnie oświetlenie jest już inne. Mózg kompensuje to inne oświetlenie, z tym nie ma problemu, więc widzimy dobrze kolory, któresąna tym papierze, niestety w naszym przypadku nie są to prawdziwe kolory sceny, tylko kombinacja wynikająca z barwy światła oświetlającego scenę i tego, jak przedmioty w scenie odbijały światło. Nasz błąd polega na tym, że nie uwzględniliśmy profilu światła, którym scena była oświetlona. To się nazywa balans bieli. Ten fotograficzny...
Brzmi znajomo, co? Jednak coś trzeba zrobić na piechotę...
Jeśli uda nam się ustalić jaki jest "skład" światła padającego na obiekt, możemy obliczyć, jaki jest na prawdę "kolor" tej powierzchni. Jeśli wiemy, jak ta powierzchnia odbija światło, możemy tak zabarwić papier fotograficzny, żeby odbijał światło tak samo. Wtedy niezależnie od oświetlenia, przy którym fotografię oglądamy, kolory będą wyglądać prawdziwie - mózg skompensuje to oświetlenie, zobaczymy kolory tak, jakbyśmy je widzieli w rzeczywistości.
Proste? Jak świński ogon przedłużony drutem kolczastym.
Załóżmy, że naszym celem jest wierna oryginalnemu obrazowi fotografia. Czyli niekoniecznie artystyczna.
Dobry papier fotograficzny to biały papier. Czyli neutralny. Jeśli go naświetlimy do oporu, ma być czarny i nie odbijać nic, jak zostawimy kawałek nienaświetlony, to powinien odbijać równie dobrze światło o dowolnej długości fali. Załóżmy, że mamy ten ideał, analogowa część nas nie interesuje chwilowo.
Zgromadziliśmy już całkiem sporą kupkę oderwanych informacji, które z fotografią wydają się mieć luźny związek, trzebaby coś konkretnego zacząć pisać, nie? No to wio.
Wiemy, że światło białe ma widmo ciągłe, wiemy, że nasze sensory nie działają nader selektywnie i samplują dość szeroko w widmie. Wiemy, że wrażenie koloru powstaje poprzez różne stopnie pobudzenia trzech rodzajów sensorów o maksimach czułości w okolicach 420nm (niebieski), 530nm (zielony) i czerwony (maksimum na 560nm, właściwie to to jest żółtawy, a wrażenie czystego czerwonego jest gdy różnica
między tym, co czuje zielony i czerwony wzrasta, choć nie jest to wtedy maksimum
czułości).
Do kupy rzecz biorąc zasadniczo możemy okantować oko mieszając mu trzy kolory i ono "zobaczy" dowolny kolor tęczy.
W poprzednim odcinku Wykładów Gościnnych nabazgrałem o sensorach CCD. Pisałem o czułości i łapaniu fotonów i robieniu elektronów. Nie napisałem nic o rozróżnianiu barw, bo... sensor sam z siebie ich nie rozróżnia. Każdy pixel potrafi tylko z grubsza określić ile fotonów dotarło do niego. Nie wie nic o ich energii, a zatem o długości fali.
Możemy jednak wykorzystać oszczędność Mamuśki Natury...
Jako, że nasze oko nie rozróżnia dowolnych barw, a tylko intensywność trzech składowych, możemy zrobić tak, aby sensor oglądał świat tak samo, jak nasze oczy - to znaczy rejestrował, jak silnie w danym miejscu obrazu pobudzany byłby biologiczny czujnik "czerwonego", jak "niebieskiego" i jak "zielonego". Wystarczy nałożyć na każdego pixela kolorowy filtr o charakterystyce zbliżonej do odpowiedniego "czujnika" oka.
Problem polega jednak na tym, że krzem jest mało czuły na światło w głębokiej czerwieni i bliskiej podczerwieni, a z kolei struktury naniesione na powierzchnię krzemu ograniczają docieranie światła o krótkich falach, czyli fiolet i bliskie UV. Stąd też wiele aparatów źle oddaje głębokie fiolety i "ciekawe" czerwienie. Poza tym plan się prawie udał. W zależności od jakości filtrów jest lepiej lub gorzej, ale jest.
Co nas to kosztuje?
No primo, filtr kradnie "trochę" światła dla siebie. Secundo jeden pixel widzi na raz tylko jedną składową. Co do pierwszego - no nie ma rady, jak nie interesują nas wszystkie fotony, to część musimy wyrzucić, albo rybki albo pipki, jedyne rozwiązanie, które tego nie robi, to ten Sigmowski wynalazek p/t Foveon, ale on za uszami swoje też ma. Drugie to... nie problem. Nasze oko też w każdym punkcie widzi tylko jedną składową, jeśli w ogóle jakąś widzi, bo bardzo dużo sensorów w ogóle koloru nie wyczuwa. Na tym zasadza się wynalazek zwany matrycą Bayerowską. Sensory czułe na zielony, czerwony i niebieski pakujemy na przemian blisko siebie, dla wynikowego obrazu jasność punktu bierzemy z jasności zmierzonej przez pixel (nieważne, że wiemy tylko o jasności np. czerwieni, zakładamy, że jest reprezentatywna) a kolor liczymy z kombinacji danych z tego sensora i okolicznych. Taki manewr pozwala rozróżnić dwa punkty odległe od siebie o 2 pixele, ale kolor dostrzec dopiero gdy są większe i dalej rozsadzone.
Taaa... A nasze oko to co? Ano to samo. Czyli jeśli nie przeginamy pały i pixel z aparatu przeniesiony na papier, przy oglądaniu będzie na siatkówce podobnych rozmiarów jak pojedyncza światłoczuła komórka oka (w skrócie: jak fotka będzie miała około 250300DPI :D), to nie da się zauważyć, że kolor jest mniej dokładnie mierzony.
Dobra. Doszliśmy nieco po łebkach to wspomnianego na początku aptekarskiego zdjęcia. Mamy narzędzie, które pozwala stwierdzić, ile i jakie światło ze sceny przychodzi.
Jeśli zrobimy pstryk i przeniesiemy dane na papier, kolory będą nienaturalne.
I tu pojawia się coś, co różni dość mocno aparaty producentów typu Pentagram od
aparatów producentów, którzy w temacie doswiadczenie mają: rzeczony balans bieli.
Gdy używamy własnych oczu mózg korzysta z pamięci, aby zgadnąć, jaki kolor ma światło w danej scenie. Jeśli widzimy wszystkich ludzi z zielonymi twarzami to (o ile
nie jesteśmy na łajbie, którą nieco buja) najpewniej światło jest zielone. Jeśli światło bardzo różni się od słonecznego, nasz własny "procesor" nie zrobi nam neutralnych kolorów, ale w dużym stopniu efekt oświetlenia usunie. Można się o tym łatwo przekonać - zrobić zdjęcie aparatem z WB na sztywno na światło żarowe, wziąć burdelowoczeroną żarówkę, pstryk: było czerwono, ale na zdjęciu wygląda dużo bardziej
czerwono, nie?
Aparat na AWB musi zrobić to samo, co nasz mózg załatwia w tle - zgadnąć, jakie światło panuje w scenie. Niestety nie jest dość inteligentny, żeby umieć odróżnić, że to jest kumpel, powinien być różowojasny, to ściana, ten zielonkawy kolor to prawdziwy, a to nasz kolega z Konga i nie ma co kombinować, on taki czarny z natury.
Najprostszy algorytm zakłada, że scena jest "średnio szara", tj. suma wszystkich
barw z wszystkich pixeli daje w sumie biel. Na tej podstawie oblicza się, jakiego koloru światła było w scenie więcej, jakiego mniej i próbuje dopasować kilka typowych
źródeł oświetlenia - żarowe, jarzeniowe, słoneczne, skylight (rozproszone światło "z
nieba"). To zdaje egzamin na imieninach u Cioci, ale rezultaty i tak bywają różne.
Aparaty, które mają możliwość ustawienia ręcznego balansu bieli bazują na fotografii
szarej/białej kartki - zakłada się, że całe spektrum odbijane jest od niej tak samo,
więc to, co matryca dostaje to kolor samego źródła światła - można go wtedy określić bardzo dokładnie.
Niestety wszystko to i tak diabli biorą, jak źródeł światła w scenie jest kilka i to różnych (np. rodzinka w domu przy żarówkach, na tarasie światło pochodni, a ogród oświetlony zachodzącym słońcem). Na to nie ma mocnych, aparat tego dobrze sam nie zrobi, nasza łepetyna też sobie źle radzi - patrz oświetlone czerwono mięso w hipermarketach + halogeny nad jarzynkami... a hala oświetlona zimnym, świetlówkowym światłem. . . :P
No i super. Zrobiliśmy co się dało, ale... przydałoby się pokręcić, zobaczyć te zdjęcia, w końcu mamy komputer, możemy zobaczyć coś na ekranie... nie?
No niby...
Ale jest taki problem: Ekran monitora nie odbija światła. On świeci własnym światłem. A nasza maszynka do eliminowania wpływu oświetlenia działa nadal (!!!!)
Ewolucja zmajstrowała nam tę maszynkę zanim wymyśliliśmy monitory. Zakłada,
że jak coś świeci, to odbija światło otoczenia. Czyli aby dobrze widzieć kolory na
ekranie, "białe" powinno wyglądać tak, jakby od białej kartki odbijało się światło w
pokoju. Stąd zalecenie, aby monitor ustawić na punkt bieli 6500K. Światło słońca w
pogodny dzień ma właśnie temperaturę barwową około 6500K, więc w pokoju oświetlonym
dziennym światłem białe pole na monitorze będzie postrzegane jako prawidłowo
białe, jeśli będzie świecić też 6500k. Oczywiście, jeśli pracujemy przy zwykłych
żarówkach (światło poniżej 3000K), postrzeganie barw będzie nieco zakłócone - biel
będzie wyglądać zimniej niż powinna...
A teraz drogie Dzieci, misiu z okienka idzie spać. A jak się Wam nudzić będzie i przekopiecie się przez tę chaotyczną klepaninę, to możecie pyta&ć śmiało, a ja pewnie i tak nie będę wiedział :O)
Autorem artykułu jest Marek Lewandowski
http://lwow.home.pl/photoblog/
|