Sensory CMOS pojawiły się jeszcze wcześniej niż CCD, już w późnych latach 60-
tych. Wynalazek CCD datowany jest na ~1970.
CCD na początku zdominowało rynek ze względu na lepszą jakość dostarczanego
obrazu: chip mimo dość drogiej produkcji (nietypowy proces, inny niż
standardowych scalaków) jest strukturalnie w miarę prosty. Wada CCD jest w
niego niejako z definicji wbudowana: żeby zgromadzony ładunek zmierzyć, trzeba
go wyprowadzić poza obręb matrycy. Ze względu na proces produkcji nie można
zintegrować elektroniki sterującej matrycą na tym samym klocku krzemu, więc
primo układ się komplikuje (zewnętrzne scalaki są niezbędne), a secundo szumy
wywołane utratą ładunku w transporcie są nie do wyeliminowania.
O co poszło najpierw? O pieniądze oczywiście.
Pierwszy renesans CMOSów nastąpił w momencie integracji kamer we wszystko co
się rusza. Jeśli coś ma być tanie nie może zawierać 4 scalaków i
kilkudziesięciu pierdół i na czubek żreć wata mocy. Tak, CCD żrą prądu ile
wlezie.
CMOS, mimo podówczas znacząco gorszej jakości obrazu, miały tę zaletę, że na
jednym kawałku krzemu dało się upchnąć wszystko - sensor, elektronikę nim
sterujacą, wzmacniacze, ADC, a na koniec to wszystko wymagało tylko jednego
zasilania 3.3V i paru mA prądu.
Przeskakując kawałek historii zajmijmy się tym, co się dzieje obecnie:
Mamy rozwiniętą technologię CCD, która nadal dostarcza bardzo dobrego obrazu.
Wszystkie kompakty mają chipy CCD. Dlaczego ktoś się w ogóle pcha z
lustrzankami w CMOS, zamiast udoskonalić CCD?
O co idzie teraz? O pieniądze oczywiście...
CMOSy można robić na jednym waflu z innymi scalakami. CCD nie. Póki mowa o
formacie paznokcia, takich sensorów mieści się na waflu DUŻO. Odpad z
okrągłego plastra krzemu można odżałować.
Ale jak mamy robić sensory o rozmiarze klatki, to jakby z tych okrągłych wafli
mniej daje wykroić. W dodatku ciąg produkcji CMOS jest unormowany, znany i
rozwijany przy okazji robienia coraz szybszych CPU. CMOS zrobić jest
zwyczajnie taniej.
Ale samo to nie byłoby wystarczającym powodem do pchnięcia nowej-starej
technologii na stół defibrylacyjny.
CCD są dobre póki są małe. Przy małych pixelach CMOS daje dupy, bo wymaga
bardziej skomplikowanej struktury która kradnie przestrzeń światłoczułą. Ale
gdy rozmiar matrycy rośnie ta różnica zanika, za to CCD zaczynają chorować na
pojemności elektrod sterujących - wymagają coraz wyższych napięć sterowania i
coraz większych prądów aby utrzymać sensowną prędkość odczytu i nie tracić
danych po drodze. Poza tym defekt (hotpixel to jeszcze nie defekt)
pojedynczego pixela CCD najczesciej ubija całą linię, CMOS - niekoniecznie.
Więc co różni konstukcyjnie CCD i CMOS?
w CMOS APS (APS = Active Pixel Structure, nie chodzi o rozmiar chipu) ładunek
nie jest wyprowadzany ze studni potencjału pixela w momencie odczytu, tylko
"ważony na miejscu" a "wynoszona" jest już informacja o jego wielkości. To
pozwala na ten przykład czytać pixele w dowolnej kolejności. Pozwala też
kilkukrotnie odczytać ten sam pixel bez zmieniania jego wartości.
Jak?
W sensorze CMOS-APS w odróżnieniu od CCD nie mamy jednej wielkiej powierzchni
zbierania ładunku, bo nie ma potrzeby tego ładunku potem ruszać. Chip stawiany
jest na substracie P, tak jak CCD, na środku każdego pixela wstawiany jest
kawałek N tworząc diodę. To jest nasza fotodioda. Jest zauważalnie mniejsza od
powierzchni pixela, o tym później. W kącie, możliwie małe, upchnięte są trzy
tranzystory MOS:
schemat: http://img146.exs.cx/img146/1255/photosite8kj.jpg
jeden (M1) na żądanie podłącza "rdzeń" (fotodiodę) do (+) zasilania. To jest
reset pixela - wszystkie zgromadzone elektrony uciekają.
drugi (M2) jest bardzo istotny: to jest nasza "waga" do zgromadzonego ładunku.
W zależności od wielkości ładunku zgromadzonego w obrębie fotodiody przewodzi
on lepiej lub gorzej, tym samym wzmacniając "złapany" sygnał.
trzeci (M3) na żądanie podłącza wyjście z (M2) do wyjścia matrycy. Pozwala
wybrać, który wiersz w danym momencie będzie czytany.
Bramki tranzystorów (M3-select) każdego pixela połączone są wierszami.
Uaktywnia się zawsze na raz cały wiersz.
Tak samo bramki sterujące (M1-reset) - kasuje się też cały wiersz na raz,
zazwyczaj zaraz po odczytaniu.
"czytać" dany wiersz można dowolna ilość razy, czytanie nie zabiera nam
stamtąd ładunku.
Wyjścia pixeli (output) połączone są kolumnami. Czyta się na raz tylko jeden
wiersz i cały jeden wiersz.
Wspomniałem wcześniej, że fotodioda jest mniejsza niż powierzchnia pixela.
Czas powiedzieć, dlaczego:
"czytający" tranzystor (M2) reaguje na napięcie na fotodiodzie.
To napięcie zależy od zgromadzonego ładunku oraz od elektrycznej pojemności
fotodiody. Gromadzi się ładunek łatwiej, gdy fotodioda jest większa, ale
jednocześnie ma ona wtedy większą pojemność i zmiany napięcia są małe.
Jednocześnie ładunki "złapane" niedaleko od fotodiody mają tendencję
"dryfowania" w jej kierunku. W efekcie rozmiar "czujnika" wybiera się tak,
żeby był mozliwie mały, ale jeszcze zbierał "wałęsające się" ładunki z całej
powierzchni pixela.
No dobra. Jak dotychczas wygląda przyjemnie, nie? Nie trzeba przepychać
ładunków, po prostu wybiera się wiersz i dostaje napięcie proporcjonalne do
ilości schwytancyh fotonów. Można przeczytać sobie dowolny jeden wiersz, można
dowolny jeden skasować, potem następny, skasować, potem dowolny inny itd. To
gdzie jest ten zdechły szczur?
Primo: tranzystory zajmują powierzchnię. Gęstość struktury rośnie z dnia na
dzień i w tej chwili już te trzy tranzystory nie zajmują 1/3 powierzchni
pixela, ale nie ma mowy o upchaniu 6MPIX na matrycy 1/4".
6MPIX sensor potrzebuje 18 milionów tranzystorów. To więcej niż Pentium II -
ten opędzał się ca. 8 milionami.
Secundo: większa ilość złącz p-n w okolicy pixela oznacza więcej dziur,
którymi ładunek może nam uciec.
Tertio: w CCD ładunek każdego pixela "ważony" jest tą samą "wagą". Jak ona
oszukuje, to cały obraz jest jaśniejszy albo ciemniejszy, ale równomiernie.
Tutaj każdy pixel ma własną wagę, więc jeśli nie uda się zrobić ich wszystkich
identycznych, to mamy wbudowany na stałe "szum" wzmocnienia.
Trzeci problem, mimo, że wygląda na najgorszy, takim ne jest - nawet, jeśli
nasze wagi się "rozjezdżają" wystarczy, że sensor zostanie raz skalibrowany
(oświetlony równomiernie i sczytany), żeby wiedzieć, jakie są mnożniki dla
poszczególnych pixeli. Tablica korekcji to kilka MB, ale nie jest to coś, co
by w dzisiejszych czasach sprawiało trudności.
Problem ciemnego prądu (ucieczki elektronów) jest w nowoczesnych sensorach
CMOS opanowany nie gorzej, niż CCD. Sporo źródeł podaje go jako "znacznie
większy", niż w przypadku CCD, ale dotyczy to raczej sytuacji, gdy porówna się
co _można_ osiągnąć w danej technologii, a nie _co można dostać za te same
pieniądze_.
Jeśli mówimy o długoterminowych ekspozycjach w teleskopach astronomicznych, to
CCD mogą w tej chwili więcej, ale primo, żeby to osiągnąć, siedzą na aktywnym
chłodzeniu, secundo, kosztują odpowiednio, tertio nikt nie przejmuje się
walniętymi kilkoma kolumnami pixeli no i quatro, nie są w stanie lecieć 5
klatek na sekundę full-res. Nie nasza liga.
Kwestia zabierania powierzchni przez dodatkowe struktury straciła nieco na
znaczeniu w ciągu ostatnich lat, bo powiedzmy, że tranzystory umiemy już robić
'dosyć małe'. Poza tym nie musimy, jak w CCD, nakrywać części chipa metalem,
bo wałęsające sięładunki nie są groźne - nie mogą dołączyć do żadnej karnej
kolonii z przeciwległego końca matrycy, a conajwyżej do najbliższego pixela,
gdzie i tak należą --> nawet obszar tranzystorów jest w pewnym, niewielkim
stopniu światłoczuły.
Gdy zejdziemy z porównywaniem CCD vs. CMOS do rozmiaru i zastosowania klatki
filmu (APS czy 35mm), CMOS wykazuje parę poważnych zalet:
- nawet poważnie uszkodzony pixel (dopóki nie zacznie przeciekać M3 można
rozwalić w pixelu praktycznie wszystko) nie wpływa na odczyt kolumny, w której
się znajduje. Matryca o dużej powierzchni BĘDZIE zawierać kilka defektów.
Szanse, że te defekty ubiją CCD są większe niż to, że ubiją CMOS.
- CMOS można odczytać szybciej. Odczytanie całej linii wymaga tylko
wysterowania linii [SELECT] i to niskim napięciem.
- blooming dotyczy CMOSów w duuużo mniejszym zakresie - pixele nie są
rozdzielone tylko polem elektrycznym elektrody na wierzchu (ccd), tylko
stanowią odrębne struktury.
- przy zwiększaniu rozdzielczości nie rosną straty związane z
przepompowywaniem ładunku w kółko
- cmosy chodzą już przy zasilaniu 3.3-5V, a nie +9/-15V czy t.p.
- wstępna obróbka sygnału może odbywać się już w obrębie samej matrycy.
- tak samo generacja sygnałów sterujacych, timingów itd.
przerwa, czas na pytania. Dziękuję za uwagę...
---- Linki
o budowie photosite:
http://www.ee.bgu.ac.il/~Orly_lab/publictions/Photoresponse%20analysis%20and%
20pixel%20shape%20optimization.pdf
o CMOS 14MPIX:
http://www.fillfactory.com/htm/technology/pdf/2004x14.pdf
o różnych podejściach do tematu sensorów:
http://www.fillfactory.com/htm/technology/pdf/pw00concepts.pdf
o ograniczeniach technologii:
http://www.fillfactory.com/htm/technology/pdf/pw00limits.pdf
Coś dla miłośników kopania się z analogiem po dupach - uwaga, dokument z 1999
roku, CMOS jest teraz sporo lepszy niż to, co tam piszą:
http://www.fillfactory.com/htm/technology/pdf/oeepe99.pdf
---- Wcześniejsze publikacje tutaj:
Wykład gościnny 1 - o bateriach i akumulatorach:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/72e64e11a51127bc
Wykład gościnny 2 - o akumulatorach LiION i NiMH:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/11d1326fa86a5774
Wykład gościnny 3 - o matrycach CCD:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/47b8e4e5ebfc68b0
Wykład gościnny 4 - o kolorach:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/e36df7df455148a1
Wykład gościnny 5 - o wielkości pixeli:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/790ed96cc7483ab0
Porad kilka wróbla Ćwirka o fotografowaniu na mrozie:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/0827f83cbb148b16
.. suplement o fotografowaniu na śniegu:
http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/17668aaeabcde418
--
Marek Lewandowski (at work)
[ Linux - It is now safe to turn on your computer. ]
see my photos at http://www.stud.uni-karlsruhe.de/~uyh0
--
Wysłano z serwisu Usenet w portalu Gazeta.pl -> http://www.gazeta.pl/usenet/
No i dzieki. Duza wiedze Wasc posiadasz i fajnie ze sie nia lubisz dzielic
:)
--
Z wyrazami uznania pozdrawiam, Maciek
Cenne wiadomosci
bubu
> No i dzieki. Duza wiedze Wasc posiadasz i
ee tam, przedwczoraj większości powyższego nie wiedziałem, ale w googlach jest
wszystko... tylko niektórzy nie chcą wierzyć, że czytanie ma przyszość ;P
> fajnie ze sie nia lubisz dzielic
darmo przyszło, darmo poszło, dobrze, jak się przydało... ;)
--
Marek Lewandowski
> A kiedy bedzie ksiazka lub moze jakis pdf Twojego autorstwa z zebranymi
> radami do kupy?
ZTCW to połowa "grupowych" adminów wortali tematycznych o foto umieszcza te
pogadanki, poza tym siedzą "na zawsze" w googlach...
Na książkę za mało tego.
--
Marek Lewandowski
Dnia 2005-02-22 15:00, Użytkownik Marek Lewandowski napisał:
[...]
>
> ee tam, przedwczoraj większości powyższego nie wiedziałem, ale w googlach jest
> wszystko... tylko niektórzy nie chcą wierzyć, że czytanie ma przyszość ;P
No nie wiem. Nijak nie potrafię wyguglać, czy przetworniki A/D są
liniowe w typowych aparatach, czy niekoniecznie.
To w związku z pytaniem kolegi, który chciałby wstawić swoje krzywe
przed utworzeniem RAW.
--
Pozdrowienia
Janek
http://www.astercity.net/~janekr/
http://www.astercity.net/~janekr/fotokicz.htm
dość dobrze liniowe. Powiedziałbym, że lepiej liniowe niż matryca.
Miło było poczytać i sie oderwac od pracy ;)
pozdrawiam,
olie-t
w szczególności rameczkę
pozdrawiam
w obliczu postepujacej miniaturyzacji, przy matrycy mniej wiecej jakiej
wielkosci zaczyna byc sens robienia CMOS zamiast CCD ?
zastanawia mnie fakt, ze jak narazie w systemie 4/3 jada na CCD
a mysle, ze mogliby na CMOS
bynajmniej dziekuje za wyklad, rozjasnilo sie dosyc duzo :)
--
pozdrawiam __ __ _n_/_\_¸_
__ __ __ _) /__| __ _|_ __ .__ _ _|_ __ | |===.-.===|
(__ ( '(__|˛ __) (__| ((__| /_ |_ |__) | ) (/_ |_ o |__) |_ | ((_)) |
_| \__. | | '==='-'==='
> W konstrukcji matryc CMOS mogą szykować się zmiany, jako pierwszy
> poinformował o nich Panasonic. Opracował technologię, w której dokoła
> fotodiody wymagane będzie tylko 1,5 tranzystorka, a nie jak dotychczas 4
> (co kolwiek miała by znaczyć ta połówka tranzystora :)), dzięki temu
> zmniejszono rozmiar pikselka nawet do 50 %, a o 10 % zwiększono powierzchnię
> fotodiody w stosunku powierzchni zajmowanej przez do "obsługującej ją
> elektronikę"
interesujące, aczkolwiek na razie jakichś bliższych szczegółów skąpią...
Ciekawe, co to.
--
Marek Lewandowski
> w obliczu postepujacej miniaturyzacji, przy matrycy mniej wiecej jakiej
> wielkosci zaczyna byc sens robienia CMOS zamiast CCD ?
> zastanawia mnie fakt, ze jak narazie w systemie 4/3 jada na CCD
> a mysle, ze mogliby na CMOS
abstrahując od pomysłu Panasonica, o którym jeszcze nie wiadomo za wiele, to
wydaje mi się, że właśnie APS-C (CF~1.5) to moment, gdy zaczyna to być
sensowne. Prawdopodobnie 4/3 jest na granicy sensowności, poza tym nie
zapominajmy, że CCD potrafi robić parę więcej firm jak CIS...
--
Marek LEwandowski
Co rozumiesz Marku przez "tylko" ... o ile dobrze pamietam 1Dm2 czyta rownoczesnie
8 kanalow ze swojej matrycy ... rozumiem, ze to polega na tym, ze wiersze podzielone
sa na 8 bankow a kontroler via 8 "magistral" ciegnie te dane rownoczesnie ... to
oczywiscie tylko moje wyobrazenie ...
> Trzeci problem, mimo, że wygląda na najgorszy, takim ne jest - nawet, jeśli
> nasze wagi się "rozjezdżają" wystarczy, że sensor zostanie raz skalibrowany
> (oświetlony równomiernie i sczytany), żeby wiedzieć, jakie są mnożniki dla
> poszczególnych pixeli. Tablica korekcji to kilka MB, ale nie jest to coś, co
> by w dzisiejszych czasach sprawiało trudności.
>
To tez chyba nie do konca ... skoro odszumianie polega na wykonywaniu "roznicowej"
slepej ekspozycji to najwyrazniej oznacza, ze taka "kalibracja" potrafi sie w
jakims stopniu rozjechac skutkiem pracy (np. temperatury) calego ukladu ...
> przerwa, czas na pytania. Dziękuję za uwagę...
>
Jak zwykle ... dzieki :)
--
Pozdrowienia ... Slon
> > Wyjścia pixeli (output) połączone są kolumnami. Czyta się na raz tylko
> > jeden
> > wiersz i cały jeden wiersz.
> Co rozumiesz Marku przez "tylko" ... o ile dobrze pamietam 1Dm2 czyta
> rownoczesnie 8 kanalow ze swojej matrycy ... rozumiem, ze to polega na tym,
> ze wiersze podzielone sa na 8 bankow a kontroler via 8 "magistral" ciegnie
> te dane rownoczesnie ... to oczywiscie tylko moje wyobrazenie ...
Nie, to znaczy, że z jednego wiersza na raz 8 kolumn wylatuje na zewnątrz
chipa. Potem następne, następne i jak doleci do końca wiersza, to czytamy
następny wiersz.
> > nasze wagi się "rozjezdżają" wystarczy, że sensor zostanie raz
> > skalibrowany
> > (oświetlony równomiernie i sczytany), żeby wiedzieć, jakie są mnożniki dla
> > poszczególnych pixeli. Tablica korekcji to kilka MB, ale nie jest to coś,
> > co
> > by w dzisiejszych czasach sprawiało trudności.
> To tez chyba nie do konca ... skoro odszumianie polega na wykonywaniu
"roznicow
> ej"
> slepej ekspozycji to najwyrazniej oznacza, ze taka "kalibracja" potrafi sie
w
> jakims stopniu rozjechac skutkiem pracy (np. temperatury) calego ukladu ...
Słoniu, sygnał z matrycy to:
v = k(x,y) * e + noise(x,y,t)
e - ładunek zebrany.
k(x,y) - wzmocnienie tranzystora w pixelu
noise się tłumaczy samo.
DFS eliminuje do pewnego stopnia addytywny noise(x,y,t).
Wady wzmacniaczy wprowadzają błąd multiplikatywny w czynnik k(). Albo robimy
porządnie wzmacniacze, albo po DFS potrzebujemy WFD white frame division).
--
Marek Lewandowski
Ponial.
> Słoniu, sygnał z matrycy to:
> v = k(x,y) * e + noise(x,y,t)
> e - ładunek zebrany.
> k(x,y) - wzmocnienie tranzystora w pixelu
> noise się tłumaczy samo.
> DFS eliminuje do pewnego stopnia addytywny noise(x,y,t).
> Wady wzmacniaczy wprowadzają błąd multiplikatywny w czynnik k(). Albo robimy
> porządnie wzmacniacze, albo po DFS potrzebujemy WFD white frame division).
A co to jest "porzadny wznacniacz" ? Funkcje czego jest blad k ?
--
Pozdrowienia ... Slon
> > porządnie wzmacniacze, albo po DFS potrzebujemy WFD white frame division).
> A co to jest "porzadny wznacniacz" ?
Liniowy i w każdym z n milionów wykonań - o taki samym wzmocnieniu.
Ponieważ wzmacniacz składa się z prostego tranzystora w układzie wtórnika to
jego liniowość zależy od obciążenia, ale powiedzmy, że nam wystarcza.
> Funkcje czego jest blad k ?
błędu głębokości i profilu domieszek w fotodiodzie, błędu rozmiaru bramki,
tolerancji grubości izolacji na bramce, kształtu kanału - ogólnie geometrii -
tranzystora wzmacniającego M2...
Czyli im dokładniejszy proces tym lepiej. Idealnie k(x,y) = k = const
--
Marek LEwandowski
a powiedz mi czy jest jakis techniczny problem, by
jeden z zielonych sensorow (ba sa z reguly dwa) dla
piksela zamienic na cyjanowy w CCD ?
pozdrawiam
Maciek
Dnia 2005-02-22 15:17, Użytkownik Marek Lewandowski napisał:
>
>> No nie wiem. Nijak nie potrafię wyguglać, czy przetworniki A/D są
>> liniowe w typowych aparatach, czy niekoniecznie.
>
> dość dobrze liniowe. Powiedziałbym, że lepiej liniowe niż matryca.
Tego się domyślam. Ale chodziło mi raczej nie o to, czy producenci
opanowali trudną sztukę liniowej zamiany sygnału analogowego na bity,
tylko o to, czy nie wprowadzają tam celowo jakiejś nieliniowości - np. o
charakterze logarytmicznym.
Tzn. sądzę, że byłoby z tym mnóstwo problemów i nikłe korzyści, ale
chętnie bym to wyczytal czarno na białym w jakimś porządnym opisie
technicznym.
Oczywiście wszystko to w związku z pytaniem o 'wgranie profili', które
miałyby wpływ na zawartość pilku RAW.
> Tego się domyślam. Ale chodziło mi raczej nie o to, czy producenci
> opanowali trudną sztukę liniowej zamiany sygnału analogowego na bity,
> tylko o to, czy nie wprowadzają tam celowo jakiejś nieliniowości - np. o
> charakterze logarytmicznym.
Dobrze zrozumiałem, o co Ci chodziło, tak, są liniowe.
> Tzn. sądzę, że byłoby z tym mnóstwo problemów i nikłe korzyści, ale
> chętnie bym to wyczytal czarno na białym w jakimś porządnym opisie
> technicznym.
nie sądzę, żebyś znalazł to czarno na białym, tak jak nie znajdziesz
schematu 300D i nie dostaniesz źródeł firmware od D2H itd.
Ale szaro na białym napisane jest: przekop co się da w zakresie ADC a
dowiesz się, że:
- wzmacniacze logarytmujące za Chiny nie chcą być dokładne przy pracy
asymetrycznej nie mówiąc już o problemach z DC jako takim.
- minimalizacja dryftu temperaturowego takiego cuda to byłaby krzyżówka
Sajgonu z Czeczenią...
- a jak o tym nie wiesz i Ci się uda to porządnie zrobić, to Cię
producenci ozłocą, a ja wyklnę :P
--
Marek Lewandowski ICQ# 10139051/GG# 154441
locustXpoczta|onet|pl
http://www.stud.uni-karlsruhe.de/~uyh0
[! Odpowiadaj pod cytatem. Tnij cytaty. Podpisuj posty. !]
> a powiedz mi czy jest jakis techniczny problem, by
> jeden z zielonych sensorow (ba sa z reguly dwa) dla
> piksela zamienic na cyjanowy w CCD ?
w celu?
Bo technicznie to może być nawet różowy, ale najlepiej się sprawdza
matryca Bayerowska gdyż ma zbliżone proporcje i rodzaj sensorów do
"naszych" biologicznych...
by zwiekszyc gamut, mieszasz 4 kolory, wiec zamiast
trojkata masz czworokat
pozdrowienia
Maciek
> by zwiekszyc gamut, mieszasz 4 kolory, wiec zamiast
> trojkata masz czworokat
jeśli charakterystyki widmowe filtru RGB pokrywają się z tymi naszych
oczu, to tak, możesz poszerzyć gamut, ale na obszar, którego nie
widzimy...
> Długo obiecywana kontynuacja kwestii matryc, rozpoczęta tutaj:
> http://groups-beta.google.com/group/pl.rec.foto.cyfrowa/msg/47b8e4e5ebfc68b0
> Dzisiaj - o co chodzi z CMOS?
[...]
I znów chylę czoło przed Nauczycielem.
Rozjaśniają się moje ciemne horyzonty :).
--
pozdrawiam
Sylwester Zarębski
przemysl to jeszcze raz :-)
pozdrawiam
Maciek
Jeśli chcesz obejść w ten sposób nasycenia innych kanałów lub zwiększyć
dokładność odwzorowania cieni, to mamy mały problem p/t spasowywanie
charakterystyk widmowych tego czegoś...
A na nosa przyjdzie i tak zapłacić rozdzielczością luminancji.
> Na książkę za mało tego.
To może chociaż jakąś nowelkę ;) A nawet jeśli nie, to i tak wielkie dzięki,
jak zwykle miło poczytać Twój wykład :)
Pozdrawiam
--
Michał "Willy" Olszewski
GG: 2903798 / ICQ: 199507526
SHOUTcast radio: http://norka.redirectme.net:8000/listen.pls
> w obliczu postepujacej miniaturyzacji, przy matrycy mniej wiecej jakiej
> wielkosci zaczyna byc sens robienia CMOS zamiast CCD ?
> zastanawia mnie fakt, ze jak narazie w systemie 4/3 jada na CCD
> a mysle, ze mogliby na CMOS
Jak na razie w systemie 4/3 pracują tylko matryce Kodaka, który nawet z
CMOSami miewa problemy. Poczekajmy na kilka nowych konstrukcji, które
pojawią się w tym roku. W "cztery czecie" wszedł Panasonic i chyba Sony.
Pozdrawiam
--
Radosław "Radio Erewan" Przybył; http://www.cdrom.pl
> a powiedz mi czy jest jakis techniczny problem, by
> jeden z zielonych sensorow (ba sa z reguly dwa) dla
> piksela zamienic na cyjanowy w CCD ?
Próbowało tego Sony i jakoś narazie sukcesu F828 nie widać.
Interpolacja Bayera to już dobrze znany algorytm, doskonalony na wielką
skalę od ładnych kilku lat. Interpolacja RGBE to nieudany eksperyment.
> Jak na razie w systemie 4/3 pracują tylko matryce Kodaka, który nawet z
> CMOSami miewa problemy.
co masz na myśli? Bo chyba Kodak w żadnym dSLR nie montuje swoich
CMOSów... (no, chyba, że właśnie o to chodzi :) )
> To może chociaż jakąś nowelkę ;) A nawet jeśli nie, to i tak wielkie dzięki,
> jak zwykle miło poczytać Twój wykład :)
polecam się do usług ;)
pozdrowienia
>
> > a powiedz mi czy jest jakis techniczny problem, by
> > jeden z zielonych sensorow (ba sa z reguly dwa) dla
> > piksela zamienic na cyjanowy w CCD ?
>
> Próbowało tego Sony i jakoś narazie sukcesu F828 nie widać.
> Interpolacja Bayera to już dobrze znany algorytm, doskonalony na wielką
> skalę od ładnych kilku lat. Interpolacja RGBE to nieudany eksperyment.
>
Czwarty kolor wprowadzal tez Nikon - wiele modeli Coolpixow (m. innymi 995,
4500, 5000) mialo 4-kolorowa matryce CYGM (Cyan, Yellow, Green, Magenta).
--
Pozdrawiam!
Marek Wyszomirski (wysz...@toya.net.pl)
> Czwarty kolor wprowadzal tez Nikon - wiele modeli Coolpixow (m. innymi 995,
> 4500, 5000) mialo 4-kolorowa matryce CYGM (Cyan, Yellow, Green, Magenta).
ale oni robili to nieco bardziej z sensem - kolory dopełniające +
zielony, dla którego oko jest najczulsze...
I tak pytanie, czy to co realnie daje...
>
> > Czwarty kolor wprowadzal tez Nikon - wiele modeli Coolpixow (m. innymi
995,
> > 4500, 5000) mialo 4-kolorowa matryce CYGM (Cyan, Yellow, Green,
Magenta).
>
> ale oni robili to nieco bardziej z sensem - kolory dopełniaj±ce +
> zielony, dla którego oko jest najczulsze...
> I tak pytanie, czy to coś realnie daje...
>[...]
Mam 995 i kolory oddaje ladnie. A czy faktycznie dzieki 4-kolorowej matrycy
oddaje ladniej niz te z matryca RGB - nie wiem - nie robilem dokladnych
testow porownawczych.
> Radio Erewan wrote:
>
>> Jak na razie w systemie 4/3 pracują tylko matryce Kodaka, który nawet z
>> CMOSami miewa problemy.
>
> co masz na myśli? Bo chyba Kodak w żadnym dSLR nie montuje swoich
> CMOSów... (no, chyba, że właśnie o to chodzi :) )
Wydawało mi się, że w slr/n jest CCD, ale sprawdziłem na DPR - oni mają w
specyfikacji CMOSa.
http://www.dpreview.com/reviews/specs/Kodak/kodak_dcsslrn.asp
Może oszybka, może fakt. Już nie pamiętam, co sam czytałem w dokumentacji.
> Może oszybka, może fakt. Już nie pamiętam, co sam czytałem w dokumentacji.
Kodak na swojej stronie też twierdzi, że to CMOS.
hmmm no ja bym wolal, zeby np Fuji nie pchalo sie w kolejne body na bazie
nikona a wypuscilo cos na 4/3. a tak mamy S3, ktory z jednej strony przeciera
nowe szlaki (matryca o zwiekszonej dynamice) a z drugiej strony powolne toto
jak dla profi ...
no tak, ale ja tu o CCD wylecialem - sorki :P
ehhh pomarzyc mozna :)
--
pozdrawiam __ __ _n_/_\_¸_
__ __ __ _) /__| __ _|_ __ .__ _ _|_ __ | |===.-.===|
(__ ( '(__|˛ __) (__| ((__| /_ |_ |__) | ) (/_ |_ o |__) |_ | ((_)) |
_| \__. | | '==='-'==='
> Wydawało mi się, że w slr/n jest CCD, ale sprawdziłem na DPR - oni mają w
> specyfikacji CMOSa.
> http://www.dpreview.com/reviews/specs/Kodak/kodak_dcsslrn.asp
> Może oszybka, może fakt. Już nie pamiętam, co sam czytałem w dokumentacji.
to nie jest oszybka, ten CMOS można kupić nawet luzem, ZTCMW robiła to
FillFactory, FF został kupiony przez Cypressa, obecnie tam należy szukać
informacji... IBIS4-14000
złamie linka:
http://www.cypress.com/portal/server.pt?space=CommunityPage&control=
SetCommunity&CommunityID=209&PageID=259&fid=145&rpn=IBIS4-14000
można go dorwać luzem u Arrow-a, kosztuje 2,5kUSD.
> Ponieważ wzmacniacz składa się z prostego tranzystora w układzie wtórnika to
> jego liniowość zależy od obciążenia, ale powiedzmy, że nam wystarcza.
To wzmacniacz jest prądowy? Czyżby to źródło CMOS'owe miało
wystarczającą amplitudę, aby wystarczała li tylko transformacja impedancji?
Jurek Plieth.
> > Ponieważ wzmacniacz składa się z prostego tranzystora w układzie wtórnika to
> > jego liniowość zależy od obciążenia, ale powiedzmy, że nam wystarcza.
> To wzmacniacz jest prądowy? Czyżby to źródło CMOS'owe miało
> wystarczającą amplitudę, aby wystarczała li tylko transformacja impedancji?
pierwszy wzmacniacz ma za wejście tranzystor w pixelu... od
charakterystyki obciążenia tego tranzystora bardzo silnie zależy, jak
liniowy jest sensor... MOSFET ma wredną, kwadratową charakterystykę,
zależną silnie od geometrii tranzystora, więc jeśli ten pierwszy cudak
nie będzie pracował w układzie OS to jesteśmy ugotowani na dzieńdobry...
podejrzewam, że za impedancję obciążenia w źródle tego M2 może służyć
prąd upływu bramki JFETa...
Ale wiesz, ja z fusów teraz wróżę ;P