<< Wróc do Maszynowni
Wszechstronny test
aparatu Canomatic
Odnośniki gdzie indziej
Punktowy pomiar światła
dla opornych
Profile ICC - poradnik dla humanistów, poetów
i duszpasterzy
"Wykłady gościnne" Marka Lewandowskiego
Zniekształcenia perspektywiczne -
- czyli kwestia szkiełka
|
|
Przy okazji wątku o A2 się mi napisało, a jako że ma to związek nie tylko z A2,
postanowiłem przerzucić kopię "luzem". Uprasza się o uzupełnianie/prostowanie niejasności i nieścisłości.
Jedziemy. Będzie długaśnie.
Nie mam ochoty na wojnę z ludźmi, którzy uważają, że wystarczy, jak aparat nie szumi przy ISO50 i 1/1000 sekundy, więc nie będę się wypowiadał na temat A2, czy jakiegokolwiek aparatu w szczególności, a naskrobię sobie o CCD i temu podobnych.
Będzie technicznie, ale jakieś wnioski powinno się dać wyciągnąć bez słownika wyrazów obcych i przekleństw egzotycznych.
Zacznijmy od tego, co to jest CCD, ale od tej elektronicznej strony. Ponieważ nie jest to moje źródło utrzymania, moja wiedza może mieć poważne merytoryczne luki, więc, jeśli ktoś tu jest z tematem za pan brat, to proszę ewentualnie o szybką korektę. Jednocześnie zapewniam, ze w wyjaśnienie tematu włożyłem więcej niż pogapienie się w sufit, a pewne uproszczenia (nazwijmy to daleko idące) są celowe, fizyka półprzewodników nie jest mi całkowicie obca, ale jak wyjedziemy tu z równaniami to się audiencja rozejdzie do domów. Kto ma ochotę na fizykę, niech wrzuci w google parę zapytań typu CCD structure, principle of operation, physics itp. Jest dość literatury na temat. To jest pogadanka dla humanistów ;D
Tak zgrubnie CCD można podzielić na takie, które do pracy potrzebują zewnętrznej migawki i takie, co jej nie wymagają. W życiu pokrywa się to z podziałem na kompakty i lustrzanki1. Kompakty (z racji na celowanie na LCD) muszą być wyposażone w matryce pozwalającą "nagrywać" "video", tj. pracować bez kłapania migawką.
1) Mimo to np. Nikony używają elektronicznej migawki również w lustrzankach.
CCD to w uproszczeniu jedna wielka dioda krzemowa. Podłoże (tzw. substrat) jest typu p, wierzchnia warstwa typu n. Na takim waflu nałożona jest cieniutka warstwa izolatora, a na to... ale o tym dalej. Padające na krzem światło powoduje wybijanie pojedynczych elektronów z ich orbit i tworzenie w ten sposób par dziura-elektron (ładunek dodatni i ładunek ujemny). Gdyby ten kawałek krzemu był jednorodny, "naturalny" taka para ładunków zaraz by się z powrotem połączyła i cześć. Jedyny efekt, to podgrzanie krzemu. My mamy jednak dwie "warstwy", jedna z "niedoborem" ładunków dodatnich, druga - ujemnych. W obrębie granicy tworzy się
wbudowane pole elektryczne. Takie rozbite uderzającym fotonem pary
nie maja
szansy się znowu połączyć, bo to pole "ciągnie" je w przeciwne strony. Elektrony w kierunku powierzchni, dziury w podłoże. Dziury nas nie interesują. Giną w czeluściach substratu, papa im mówimy i tyle. Zbieramy elektrony.
Jak juz napisałem, cała struktura p-n przykryta jest izolatorem. W ten sposób uwięziliśmy elektrony - w głąb nie uciekną, bo je stamtąd pole elektryczne wygania, w górę nie prysną, bo izolator ich nie przepuści... zaraz, ale na boki mogą pełzać...
No jak mogą, to i będą pełzać.
Coby pełzaniu zapobiegać, na wierzch izolatora naniesiemy elektrody. Podłużne, wąskie paski ciągnące się przez całą szerokość sensora. W równych odstępach. Naładujemy je dodatnio. Ładunki dodatnie i ujemne się przyciągają, więc teraz (ujemne) elektrony przyciągane dodatnim ładunkiem elektrod będą gromadzić się pod nimi - jak pod dachem. Wygenerowany fotonem elektron pryśnie pod najbliższy "daszek". Gdyby nie było tego izolatora, to elektrony dolazłyby do tych elektrod i uciekły.
Ale mamy izolator.
Zaraz. Ale to nam załatwiło połowę problemu. Elektrony nie uciekną na powierzchni
ę, ani w głąb, ani w górę, ani w dół, ale maja jeszcze swobodę w lewo i w prawo.
Pomysł, aby paski elektrod poszatkować w małe kwadraciki niestety nie zda egzaminu,
bo jakoś trzeba nimi móc sterować, a doprowadzić prąd można tylko z brzegu
sensora. Doprowadzenia będą tak samo przyciągać ładunki, więc sorry. Rozwiązanie
problemu to zaszyte pod powierzchnia izolatora pionowe wąskie paski domieszek,
dzielące "równinę" sensora na "rowy". Taaa. . . widzicie juz "pixele"? Wcale nie takie podzielone jak by się wydawało, nie? Podział raczej płynny i polegający na strefach oddziaływania...
OK, dość chrzanienia, zebraliśmy ładunki na kupki, teraz czas coś z nimi zrobić.
Zebraliśmy, czyli naświetliliśmy zdjęcie - w miejscach, gdzie było jaśniej, więcej fotonów padło na nasz kawałek krzemu i więcej elektronów zostało naprodukowanych
i teraz siedzą pod daszkiem. Tam, gdzie było bardzo ciemno siedzi jeden, może dwa
samotne i trzęsą się z zimna.
Trzeba to jakoś wydostać. Z racji na budowę sensora ładunki nie mogą się poruszyć na boki, bo trafią na te kanały, nie mogą tez spłynąć w głąb, więc musimy je wyprowadzić z góry na dół wzdłuż kolumn. Jeśli rozładujemy te "daszki" przestaną one przyciągać elektrony i pozwolą im płynąć. Niestety w ten sposób rozpłyną się one po "kościach". Aby je poprowadzić naniesiemy miedzy każdymi dwoma podłużnymi elektrodami dwie ekstra. Normalnie nienaładowane, więc i nie wpływające na
gromadzenie się ładunków. Teraz, przy odczycie, pomogą nam wyciągnąć ładunki
na zewnątrz. Ruchem robaczkowym.
Ładujemy dodatnio sąsiednie, oczko niższe elektrody względem tych, co mieliśmy naładowane. Elektrony przyciągane są ociupinkę dalej. Rozładowujemy "starą" elektrodę - elektrony przyciągane są tylko przez te "nową" - przesunęły się znowu kawałek dalej itd.
Ponieważ zawsze pomiędzy dwoma "naładowanymi" miejscami jest kawałek przerwy, elektrony zebrane w różnych miejscach nie przemieszają się nam. Na samym dole CCD czeka drugi taki dynks, tym razem przesuwający ładunki z lewa na prawo. W ten sposób ostatecznie wypływają porcyjki elektronów pixel za pixelem. Teraz trzeba te elektrony policzyć i git.
Dla tych, którym ten opis zrobił się dziki, tutaj jest plik powerpointa całkiem ładnie i czysto tłumaczący sprawę (tyle, że po angielsku):
www.ing.iac.es/~smt/CCD_Primer/Activity_1.ppt
Co nam z tego wynika?
- W najlepszym wypadku dostajemy 1 elektron na 1 padający foton. W praktyce jest gorzej, bo część fotonów się od krzemu odbije, część zostanie pochłonięta
bez generacji wolnych elektronów, część będzie miała za małą energie do wybicia
elektronu (światło głębsze niż czerwone zasadniczo przelatuje przez krzem bez
przystanków po drodze)... Elektrony później można tylko tracić. Nie ma żadnego
manewru, który raz utracone elektrony nam "urodzi". Można "namnożyć" te, które zostały, ale nie przywróci to informacji.
- Ilość fotonów padających na cm2 powierzchni określa, ile maksymalnie możemy
dostać elektronów. Jest to niezależne od budowy i technologii CCD. Przy danej
ilości światła padającego na kawałek krzemu (przysłona obiektywu, ilość światła w
scenie) dostaniemy maksymalnie tyle a tyle elektronów. Finito.
- Optymalizacje technologii mogą nam dać "tylko" mniejsze straty.
Jedziemy dalej. Teraz będzie mniej opisów.
Podstawowy sensor jak obsmarowany wyżej nie pozwala na pracę bez migawki. Trzeba go naświetlić, światło zamknąć i odczytywać. Inaczej do przesuwanych ładunków będą cały czas dołączać nowe, generowane padającym światłem. To się nadaje do lustrzanki, ale nie do kompakta. Trzeba sprawę ulepszyć.
Ulepszono to tak, że każdą kolumnę podzielono znowu na dwie części, jedna jest światłoczuła, a druga przykryta paskiem metalu (nieprzezroczystym). Po naświetleniu matrycy przesuwa się zebrane ładunki najpierw na tę ciemną stronę (tak samo, jak je przesuwaliśmy w dół), a dopiero potem robaczkowo ciągnie w dół. W tym czasie światło może sobie dalej padać, bo nowe ładunki nie dołączą do tych transportowanych.
Niestety, płacimy za to tym, że część sensora jest nieczuła na światło. Radą na to (i nie tylko na to) są tzw. mikrosoczewki, które łapią światło znad całego
"pixela" i skupiają je na tej mniejszej światłoczułej powierzchni. Czuła powierzchnia
jest mniejsza, ale dostaje silniejsze światło, więc strata jest w dużym stopniu skompensowana.
Dobra. A co to ma do nas?
- Mamy więcej etapów transportu. Więcej możliwości przecieku elektronów.
- Rozmiar pixela... Właśnie... Co określa jak duży jest ten pixel!? Przecież względnie sztywne granice mamy tylko po bokach...
Ano w dużej mierze rozmiar pixela wynika z siły pola i struktury domieszkowania
krzemu, to w efekcie daje jakby "dołek" energetyczny, gdzie zbierają się elektrony.
"Dołki" powinny być jednakowe, bo pixele są jednakowe w założeniu. Niestety jak
rozmiar dołka zaczynają określać relacje sil pola elektrycznego, to nawet małe zmiany
w rozmiarach i położeniu elektrod mogą nam te granice poprzesuwać. Stąd przy
zadanej dokładności procesu produkcji CCD dostaniemy jakiś, zadany błąd rozmiarów
pixela.
A jak to się ma do fotografii?
Załóżmy, ze fotografujemy równomiernie białą plamę. Każdy pixel powinien dostać taką samą ilość elektronów. Ponieważ niektóre pixele są większe, zbiorą ich więcej (maja więcej powierzchni na łapanie). Po odczytaniu i zmierzeniu zostaną zinterpretowane jako JAŚNIEJSZE. Dostaniemy na obrazie tzw. fixed pattern noise, czyli szum, który się nie zmienia w czasie. To jest ta część szumu, którą można programowo skompensować prawie zawsze, wystarczy zrobić jedna pomiarowa ekspozycję idealnie równego naświetlenia i na tej podstawie obliczyć potrzebne współczynniki. Jest to robione niejako przy okazji podczas dark frame subtraction. Tolerancje produkcji są dla jednej generacji matryc podobne, więc im mniejszy pixel tym większy rozrzut rozmiarów. Czyli 8MPIX będzie gorsze od 4, czy 5MPIX.
Następna sprawa to tzw. prąd ciemny, czyli te elektrony, które pojawiają się "znikąd" i nie mają nic wspólnego z tymi "zrobionymi" przez fotony. Nie da się odróżnić jednych od drugich, więc policzone będą wszystkie. Prąd ciemny dla danej technologii można przyjąć za "stochastycznie stały", więc ilość dorzucanych elektronów ni z gruszki ni z pietruszki jest (licząc na powierzchnię) stała. Samo w sobie nie stanowi to problemu, bo fotony też są nam dane na cm2 powierzchni, więc bez różnicy, czy wytniemy małe, czy duże pixele, S/N powinien być podobny. Ale niestety prąd ciemny wpływa nam nie tylko z substratu, ale też przecieka przez "granice" pixela, więc im więcej tych granic nastawiamy tym będzie gorzej. W dodatku domieszkowanie substratu nie jest idealnie równomierne, drobne niejednorodności maja większą szansą się uśrednić w obrębie dużego pixela, mały zaś może sobie wyciąć akurat nieprzyjemny kawałek. Z tego wszystkiego wychodzi nierównomierność prądu ciemnego miedzy pixelami... Tym razem zjawisko daje co prawda stały rozkład szumu, ale silnie zależny od czasu naświetlania i od temperatury. Można to redukować przez odejmowanie ciemnej klatki (tzn. po normalnym zdjęciu robimy drugie, zbierając tylko te przeciekające elektrony i korygując poprzedni pomiar). Zasadniczo im więcej MPIX tym gorzej, bo więcej przypadkowych ładunków trafia do pixela.
Tyle o akwizycji obrazu. Teraz kwestia wydobycia elektronów już zebranych. Każde przesuniecie ładunków "o oczko" niesie ze sobą ryzyko strat. Jest to wyliczalne i stanowi parametr dla danej technologii. Im więcej transferów trzeba zrobić, tym większy błąd (większy margines elektronów, które mogły wsiąknąć). Średnio na odczyt matrycy N x M pixeli trzeba N + M/2 transferów. Dla 5MPIX potrzeba
około 3 tysięcy przesunięć, dla 8MPIX potrzeba ok. 4 tysięcy. Niby tylko 30% różznicy, ale sprawność przeniesienia trzeba podnieść DO TAKIEJ POTĘGI aby dostać wynikowa sprawność transportu!!!
Ostatecznie docieramy do wzmacniacza/konwertera ładunek/napięcie, czyli naszego licznika elektronów. Tu nie ma przeproś. Tu mamy z jednej strony wymóg szybkości (nie możemy czekać godziny na odczyt), a z drugiej - dokładności. Szum na poziomie 5 elektronów to praktycznie marzenia. Więc jeśli cela jest mniejsza, zbiera mniej elektronów, to tu jest kasa, gdzie się za to płaci.
Słowem: im większa rozdzielczość, tym mniejsze efektywne fotocele, tym większy wpływ prądu ciemnego, tym mniejsza odporność na ciepło, tym większe grzanie własne, tym większe straty transportu, tym mniejszy użyteczny sygnał, słowem, tym gorzej dla zdjęć.
Co robią producenci?
Maja jeszcze kilka pól do manewru. Goły CCD odbija 1/3 światła padającego prostopadle i więcej, gdy pod katem. Mikrosoczewki niwelują drugi człon problemu, a pokrycia antyodblaskowe z dwutlenku hafnu dają redukcje pierwszego członu, ale są upierdliwe w CCD oświetlanych od frontu. Można zwiększać precyzje wykonania i jakość domieszkowania, ale to wszystko to MINIMALIZACJA STRAT. Z mniejszymi fotocelami zawsze dostaniemy mniej możliwych elektronów na pixel.
Wydaje się, że ze względu na dotychczasowa nieskalowalność wzmacniaczy odczytu, problemy z prądami upływu itd. optimum leży około 5MPIX na 2/3'', powyżej szumy narastają raptownie.
To, czy szumy uwidocznia się na zdjęciu to nie tylko sprawa matrycy. Producenci zdają sobie sprawę z gorszego S/N dla matryc 8MPIX i wszyscy (poza Sony) zaprzęgli wydajne algorytmy redukcji szumu, więc zdjęcia bywa, że nie wyglądają źle. Ale matryca nie ma "zapasu" na cienie, na wyższe czułości, więc się można ugryźć.
Autorem artykułu jest Marek Lewandowski
http://lwow.home.pl/photoblog/
|