kolorki swiata [wyklad goscinny IV]

12 views
Skip to first unread message

Marek Lewandowski

unread,
Nov 24, 2004, 6:20:52 PM11/24/04
to
Na początek notka administracyjna.
Niniejszym oświadczam, że wszystkie moje byłe jak i przyszłe teksty,
które umieszczam na pl.rec.foto.cyfrowa z dopiskiem [wykład gościnny
ileśtam] stanowią "dobro publiczne" więc mogą być umieszczane wraz z
uzupełnieniami na dowolnych stronach zwiazanych tematycznie, o ile
webmajster nie zapomni o umieszczeniu czytelnie mojego nazwiska u dołu
czy góry, wraz z ewentualnym linkiem do mojej www.
Znaczy nie musicie się następnym razem dobijać, jak ostatnim razem :PPPP
Miło, jeśli dostanę linka do strony gdzie to jest.

O czym dzisiaj?
a niech będzie, że pociągniemy dalej temat matryc. Ale nie przejdę od
razu do CMOS, tylko będzie skok w bok, achronologicznie, alogicznie itp.
Będzie o kolorze, dynamice i postrzeganiu barw. Myślę, że tutaj Jacek
Zagaja miałby wiele do powiedzenia, na pewno mnie zgani za pobieżność,
ale niech będzie, że to dla tych mniej kumatych :)

Żeby zrozumieć fotografię, trzeba zrozumieć własne oczy. Czyli zgłębić
nieco zasadę kolorowego widzenia. No dobra, widzenia w ogóle.
Zacznijmy od tego, że nasze oczy nie są prawie wcale czułe na kolor.
Tak, dobrze słyszeliście, jasne, to jest przesadzone. Jednak na prawdę
widzimy dużo wyraźniej jasność, niż barwy. Prędzej możemy rozróżnić dwie
kropki obok siebie, niż to, że jedna jest czerwona a druga zielona. To
sobie przyjmijmy za fakt i nie wnikajmy na razie dalej, na to przyjdzie
jeszcze czas.

Wspomniałem coś o kolorach...
Mamy 3 rodzaje sensorów koloru w oku... Czerwony, zielony i
niebieski.... prrr! stop. Tak nas nauczono mówić i to wpada już w
regułę. To nie są sensory reagujące na kolor!
Co to jest kolor?
Światło to mieszanka różnej długości fal elektromagnetycznych. Trochę
podobnie do dźwięku, który jest falą mechaniczną (uproszczenia warning).
Różne barwy głosu składają się z różnych tonów. Dudnienie basu to
głównie, ale nie wyłącznie niskie, wycie podstarzałej i przygłuchej
śpiewaczki operowej to raczej tony wysokie. Bardzo rzadko spotyka się
czyste, płaskie dźwięki w naturze - to raczej wytwór cywilizacji.
Podnieś słuchawkę - ten ton to 440Hz, jednolity, monotonny. Podobnie
jest ze światłem: niemalże nie ma w naturze światła o jednej jedynej,
czystej długości fali. Blisko tego są lasery, ale trudno zaliczyć je do
natury :) Barwa światła to to, jakie długości fal są w nim obecne. Jest
nieskońćzenie wiele kombinacji.

Nasze "sensory" światła nie są bardzo selektywne (tak się mówi o
sensorze, który reaguje tylko na jeden rodzaj "sygnału" - tu na jedną
długość fali). To, o czym mówimy, że reaguje na zielone, "piszczy"
najsilniej oświetlone światłem w okolicach 560nm, a dużo słabiej "po
bokach" - w kierunku 400 czy 700nm. Dużo słabiej, to nie znaczy, że
wcale! Jeśli oświetlimy nasz "zielony" czujnik światłem czerwonym
(okolice 660 - 750nm) lub niebieskim (450nm) TEŻ zareaguje. Tylko
SŁABIEJ.

Dzięki temu możemy w ogóle widzieć tęczę.

Weźmy teraz dla przykładu światło ŻÓŁTE. 575-600nm. Pobudzi zarówno nasz
"zielony" jak i nasz "czerwony" fotodetektor. Mózg zakłada, że jest to
światło żółte.
Jeśli weźmiemy dwie lampki, czerwoną i zieloną i umieścimy blisko
siebie, zobaczymy je z daleka jako żółtą.
Jeśli zaczniemy je oddalać od siebie, to patrząc na nie kątem oka (a nie
centralnie) najpierw rozdzielą się nam na _dwie_ _żółte_ lampki, a
dopiero potem staną zieloną i czerwoną.
Mieszanka czerwonego i zielonego drażni w równym stopniu receptory
"czerwony" i "zielony". Tak samo, jak żółte światło. Mimo iż "kolor"
("skład" światła) się zmienił, jego percepcja - nie.

dobra. Mam nadzieję, że przynajmniej z gruntu się zrozumieliśmy.
Czas pójść dalej. Na razie porozmawialiśmy sobie o kolorze ŚWIATŁA. Ale
co nas najczęściej interesuje na zdjęciu to kolory przedmiotów!

Co to znaczy, że powierzchnia ma jakiś kolor?

W zależności od swojej struktury materiały _odbijają_ różne długości
fali różnie. Czerwony kapturek odbija bardzo dobrze światło z okolic
"czerwieni" (680nm) i dużo gorzej światło "niebieskie" (okolice 450nm).
W świetle dziennym zobaczymy go jako czerownego.
Zauważcie, że napisałem "w świetle dziennym". To, jak postrzegamy kolory
sceny zależy od światła, które ją oświetla! Jeśli weźmiemy silnie
monochromatyczną lampę świecącą na niebiesko, to... kapturek "zmieni
kolor". Po prostu ten czerwony materiał źle odbija światło niebieskie,
ale jednak odbija, a z kolei światła czerwonego, które odbija bardzo
dobrze, nasza lampa nie wysyła "w ogóle", więc do oka dochodzi tylko
odbite, słabe, niebieskie światło i drażni je tak, że widzimy... ciemny,
niebieski kapturek.
W pewnych granicach nasz mózg kompensuje ten wpływ. Jeśli światło nie
jest tak silnie "zabarwione", a w scenie znajdują się przedmioty o
znanych barwach, mózg automatcznie rozpozna kolor światła i "odejmie" go
od tego, co melduje oko. Dzięki temu biała kartka wydaje się biała i
rano i w południe i wieczorem.
To się fachowo nazywa balans bieli. Ten biologiczny...

Jeśli użyjemy perfekcyjnego urządzenia, które "zamrozi" wpadające do oka
światło, tak jak ono jest, idealnie, i przeniesie jakoś na papier, to
takie "aptekarskie" zdjęcie będzie wyglądało ŹLE.
Dlaczego?
Póki jesteśmy "w scenie" działa wbudowana w nasz mózg kompensacja koloru
światła. Jeśli oglądamy to samo na papierze, przeważnie oświetlenie jest
już inne. Mózg kompensuje to inne oświetlenie, z tym nie ma problemu,
więc widzimy dobrze kolory, które SĄ na tym papierze, niestety w naszym
przypadku nie są to prawdziwe kolory SCENY, tylko kombinacja wynikająca
z barwy światła oświetlającego scenę i tego, jak przedmioty w scenie
odbijały światło.
Nasz błąd polega na tym, że nie uwzględniliśmy profilu światła, którym
scena była oświetlona. To się nazywa balans bieli. Ten fotograficzny...
brzmi znajomo, co? Jednak coś trzeba zrobić na piechotę...

Jeśli uda nam się ustalić jaki jest "skład" światła padającego na
obiekt, możemy obliczyć, jaki jest na prawdę "kolor" tej powierzchni.
Jeśli wiemy, jak ta powierzchnia odbija światło, możemy tak zabarwić
papier fotograficzny, żeby odbijał światło tak samo. Wtedy niezależnie
od oświetlenia, przy którym fotografię oglądamy, kolory będą wyglądać
prawdziwie - mózg skompensuje to oświetlenie, zobaczymy kolory tak,
jakbyśmy je widzieli w rzeczywistości.

proste? Jak świński ogon przedłużony drutem kolczastym.

_Załóżmy_, że naszym celem jest _wierna_ oryginalnemu obrazowi
fotografia. Czyli niekoniecznie artystyczna.

Dobry papier fotograficzny to biały papier. Czyli neutralny. Jeśli go
naświetlimy do oporu, ma być czarny i nie odbijać nic, jak zostawiy
kawałek nienaświetlony, to powinien odbijać równie dobrze światło o
dowolnej długości fali. Załóżmy, że mamy ten ideał, analogowa część nas
nie interesuje chwilowo.

Zgromadziliśmy już całkiem sporą kupkę oderwanych informacji, które z
fotografią wydają się mieć luźny zwiazek, trzebaby coś konkretnego
zacząć pisać, nie?
No to wio. Wiemy, że światło białe ma widmo ciągłe, wiemy, że nasze
sensory nie działają nader selektywnie i samplują dość szeroko w widmie.
Wiemy, że wrażenie koloru powstaje poprzez różne stopnie pobudzenia
trzech rodzajów sensorów o maksimach czułości w okolicach 420nm
(niebieski) zielony (530nm) i czerwony (maksimum na 560nm, właściwie to
to jest żółtawy, a wrażenie czystego czerwonego jest gdy różnica między
tym, co czuje zielony i czerwony wzrasta, choć nie jest to wtedy
maksimum czułości).
Czyli zasadniczo możemy okantować oko mieszając mu trzy kolory i ono
"zobaczy" dowolny kolor tęczy.

W poprzednim odcinku Wykładów Gościnnych nabazgrałem o sensorach CCD.
Pisałem o czułości i łapaniu fotonów i robieniu elektronów. Nie
napisałem nic o rozróżnianiu barw, bo... sensor sam z siebie ich nie
rozróżnia. Każdy pixel potrafi tylko z grubsza określić ile fotonów
dotarło do niego. Nie wie nic o ich energii, a zatem o długości fali.
Możemy jednak wykorzystać oszczędność Mamuśki Natury...
Jako, że nasze oko nie rozróżnia dowolnych barw, a tylko intensywność
trzech składowych, możemy zrobić tak, aby sensor oglądał świat tak samo,
jak nasze oczy - to znaczy rejestrował, jak silnie w danym miejscu
obrazu pobudzany byłby biologiczny czujnik "czerwonego", jak
"niebieskiego" i jak "zielonego". Wystarczy nałożyć na każdego pixela
kolorowy filtr o charakterystyce zbliżonej do odpowiedniego "czujnika"
oka. Problem polega jednak na tym, że krzem jest mało czuły na światło w
głębokiej czerwieni i bliskiej podczerwieni, a z kolei struktury
naniesione na powierzchnię krzemu ograniczają docieranie światła o
krótkich falach, czyli fiolet i bliskie UV. Stąd też wiele aparatów źle
oddaje głębokie fiolety i "ciekawe" czerwienie. Poza tym plan się prawie
udał. W zależności od jakoci filtrów jest lepiej lub gorzej, ale jest.
Co nas to kosztuje?
No primo, filtr kradnie "trochę" światła dla siebie. Secundo jeden pixel
widzi na raz tylko jedną składową.
Co do pierwszego - no nie ma rady, jak nie interesują nas wszystkie
fotony, to część musimy wyrzucić, albo rybki albo pipki, jedyne
rozwiązanie, które tego nie robi, to ten Sigmowski wynalazek p/t Foveon,
ale on za uszami swoje też ma.
Drugie to... nie problem. Nasze oko też w każdym punkcie widzi tylko
jedną składową, jeśli w ogóle jakąś widzi, bo bardzo dużo sensorów w
ogóle koloru nie wyczuwa. Na tym zasadza się wynalazek zwany matrycą
Bayerowską. Sensory czułe na zielony, czerwony i niebieski pakujemy na
przemian blisko siebie, dla wynikowego obrazu JASNOŚĆ punktu bierzemy z
jasności zmierzonej przez pixel (nieważne, że wiemy tylko o jasności np.
czerwieni, zakładamy, że jest reprezentatywna) a KOLOR liczymy z
kombinacji danych z tego sensora i okolicznych.
Taki manewr pozwala ROZRÓŻNIĆ dwa punkty odległe od siebie o 2 pixele,
ale KOLOR dostrzec dopiero gdy są większe i dalej od siebie. Taaa... A
nasze oko to co? Ano to samo. CZyli jeśli nie przeginamy pały i pixel z
aparatu przeniesiony na papier, przy oglądaniu będzie na siatkówce
podobnych rozmiarów jak pojedyncza światłoczuła komórka oka (w skrócie:
jak fotka będzie miała około 250-300DPI :D), to nie da się zauważyć, że
kolor jest mniej dokładnie mierzony.

Dobra. Doszliśmy nieco po łebkach to wspomnianego na początku
aptekarskiego zdjęcia. Mamy narzędzie, które pozwala stwierdzić, ile i
jakie światło ze sceny przychodzi. Jeśli zrobimy pstryk i przeniesiemy
dane na papier, kolory będą nienaturalne. I tu pojawia się coś, co różni
dość mocno aparaty producentów typu Pentagram od aparatów producentów,
któzy w temacie doswiadczenie mają: rzeczony balans bieli.

Gdy używamy własnych oczu mózg korzysta z pamięci, aby zgadnąć, jaki
kolor ma światło w danej scenie. Jeśli widzimy wszystkich ludzi z
zielonymi twarzami to (o ile nie jesteśmy na łajbie, którą nieco buja)
najpewniej światło jest zielone. Jeśli światło bardzo różni się od
słonecznego, nasz własny "procesor" nie zrobi nam neutralnych kolorów,
ale w dużym stopniu efekt oświetlenia usunie. Można się o tym łatwo
przekonać - zrobić zdjęcie aparatem z WB na sztywno na światło żarowe,
wziąć burdelowoczeroną żarówkę, pstryk: było czerwono, ale na zdjęciu
wygląda bużo bardziej czerwono, nie?
Aparat na AWB musi zrobić to samo, co nasz mózg załatwia w tle -
zgadnąć, jakie światło panuje w scenie. Niestety nie jest dość
inteligentny, żeby umieć odróżnić, że to jest kumpel, powinien być
różowojasny, to ściana, ten zielonkawy kolor to prawdziwy, a to nasz
kolega z Konga i nie ma co kombinować, on taki czarny z natury.
Najprostszy algorytm zakłada, że scena jest "średnio szara", tj. suma
wszystkich barw z wszystkich pixeli daje w sumie biel. Na tej podstawie
oblicza się, jakiego koloru światła było w scenie więcej, jakiego mniej
i próbuje dopasować kilka typowych źródeł oświetlenia - żarowe,
jarzeniowe, słoneczne, skylight (rozproszone światło "z nieba"). To
zdaje egzamin na imieninach u Cioci, ale rezultaty i tak bywają różne.
Aparaty, które mają możliwość ustawienia ręcznego balansu bieli bazują
na fotografii szarej/białej kartki - zakłada się, że całe spektrum
odbijane jest od niej tak samo, więc to, co matryca dostaje to kolor
samego źródła światła - można go wtedy określić bardzo dokładnie.

Niestety wszystko to i tak diabli biorą, jak źródeł światła w scenie
jest kilka i to różnych (np. rodzinka w domu przy żarówkach, na tarasie
światło pochodni, a ogród oświetlony zachodzącym słońcem). Na to nie ma
mocnych, aparat tego dobrze sam nie zrobi, nasz łepetyna też sobie źle
radzi - patrz oświetlone czerwono mięso w hipermarketach + halogeny nad
jarzynkami... a hala oświetlona zimnym, świetlówkowym światłem... :P

No i super. Zrobiliśmy co się dało, ale... przydałoby się pokręcić,
zobaczyć te zdjęcia, w końcu mamy komputer, możemy zobaczyć coś na
ekranie... nie?
No niby...
Ale jest taki problem: Ekran monitora nie odbija swiatła. On świeci
własnym światłem.
A nasza maszynka do eliminowania wpływu oświetlenia działa nadal (!!!!)
Ewolucja zmajstrowała nam tę maszynkę zanim wymyśliliśmy monitory.
Zakłada, że jak coś świeci, to odbija światło otoczenia. Czyli aby
dobrze widzieć kolory na ekranie, "białe" powinno wyglądać tak, jakby od
białej kartki odbijało się światło w pokoju. Stąd zalecenie, aby monitor
ustawić na punkt bieli 6500K. Światło słońca w pogodny dzień ma właśnie
temperaturę barwową około 6500K, więc w pokoju oświetlonym dziennym
światłem białe pole na monitorze będzie postrzegane jako prawidłowo
białe, jeśli będzie świecić też 6500k.
Oczywiście, jeśli pracujemy przy zwykłych żarówkach (światło poniżej
3000K), postrzeganie barw będzie nieco zakłócone - biel będzie wyglądać
zimniej niż powinna...

A teraz drogie Dzieci, misiu z okienka idzie spać. A jak się Wam nudzić
będzie i przekopiecie się przez tę chaotyczną klepaninę, to możecie
pytać śmiało, a ja pewnie i tak nie będę wiedział :O)
--
Marek Lewandowski ICQ# 10139051/GG# 154441
locustXpoczta|onet|pl
http://www.stud.uni-karlsruhe.de/~uyh0
[! Odpowiadaj pod cytatem. Tnij cytaty. Podpisuj posty. !]

Message has been deleted
Message has been deleted

Albert Wilinisky

unread,
Nov 24, 2004, 11:21:00 PM11/24/04
to

> rozwiązanie, które tego nie robi, to ten Sigmowski wynalazek p/t Foveon,
> ale on za uszami swoje też ma.


Szanowny Panie Marku
Uwaga moja nie dotyczy treści merytorycznej pańskiego wykładu, jednakoż
gwoli ścislosci i aby pozostać wiernym faktom - zauważam
Sensor Foveon X3 DIS został opracowany i wykonany przez zespół którym
kierował dr.Carver Mead założyciel firmy Foveon.
Jest on kojarzony z firmą Sigma poprzez zastosowanie go w modelu SD9 i
SD 10 tegoż producenta.Sensor ten jest stosowany również w produktach
Polaroid i HanVision.

Pozdrawiam
Albert Wilinisky

TOPOL AGENCY

unread,
Nov 25, 2004, 1:10:05 AM11/25/04
to
Tak się zastanawiam, co tu trzeba bylo wymyslac, skoro od dawna dzialaja juz
kamery video z 3CCD i (o ile sie nie myle) zasada dzialania przetwornika
jest identyczna...

Marek Lewandowski

unread,
Nov 25, 2004, 1:26:51 AM11/25/04
to
Albert Wilinisky <r-1222R&D...@foveon.com> napisał(a):

> > rozwiązanie, które tego nie robi, to ten Sigmowski wynalazek p/t Foveon,
> > ale on za uszami swoje też ma.

> Szanowny Panie Marku

proszę, nie panuj mi w Usenecie... W rzeczywistości też raczej nie, chyba, że
się kiedyś na negocjacjach spotkamy ;)

> gwoli ścislosci i aby pozostać wiernym faktom - zauważam
> Sensor Foveon X3 DIS został opracowany i wykonany przez zespół którym
> kierował dr.Carver Mead założyciel firmy Foveon.

Dzięki za sprostowanie, skrót myślowy zrobiłem, bo nie chciałem tu wchodzić w
niuanse wyjątku warstwowego sensora, który coś rozwiazuje, ale wprowadza za to
dużo własnych, specyficznych problemów, jak chociażby zła separacja barw...
--
Marek Lewandowski (at work)

--
Wysłano z serwisu Usenet w portalu Gazeta.pl -> http://www.gazeta.pl/usenet/

Tomek

unread,
Nov 25, 2004, 2:59:54 AM11/25/04
to
TOPOL AGENCY wrote:
> Tak się zastanawiam, co tu trzeba bylo wymyslac, skoro od dawna dzialaja juz
> kamery video z 3CCD i (o ile sie nie myle) zasada dzialania przetwornika
> jest identyczna...

W kamerach wideo 3CCD, jak sama nazwa wskazuje, są trzy przetworniki
CCD, każdy przysłonięty jednolitym filtrem, a światło z obiektywu jest
"rozdzielane" przez układ z pryzmatem.

W aparacie taki numer raczej nie przejdzie ;-)

Tomek

Jan Rudziński

unread,
Nov 25, 2004, 3:15:25 AM11/25/04
to
Cześć wszystkim

Użytkownik Marek Lewandowski napisał:

[...]


>
> Nasze "sensory" światła nie są bardzo selektywne (tak się mówi o
> sensorze, który reaguje tylko na jeden rodzaj "sygnału" - tu na jedną
> długość fali). To, o czym mówimy, że reaguje na zielone, "piszczy"
> najsilniej oświetlone światłem w okolicach 560nm, a dużo słabiej "po
> bokach" - w kierunku 400 czy 700nm. Dużo słabiej, to nie znaczy, że
> wcale! Jeśli oświetlimy nasz "zielony" czujnik światłem czerwonym
> (okolice 660 - 750nm) lub niebieskim (450nm) TEŻ zareaguje. Tylko
> SŁABIEJ.

Gwoli ścisłości oprócz trzech czujników kolorowych nasze oko ma
jeszcze zestaw czujników czarnobiałych (w pewnym przybliżeniu), za to o
czułości i rozdzielczości nieporównanie większej, niż wszystkie trzy
kolorowe razem wzięte. Dlatego w telewizji kolorowej pasmo przenaczone
na kolory jest kilka razy mniejsze, niż na obraz cz-b, a i tak nikt nie
narzeka.

[...]


> Drugie to... nie problem. Nasze oko też w każdym punkcie widzi tylko
> jedną składową, jeśli w ogóle jakąś widzi, bo bardzo dużo sensorów w
> ogóle koloru nie wyczuwa. Na tym zasadza się wynalazek zwany matrycą
> Bayerowską. Sensory czułe na zielony, czerwony i niebieski pakujemy na
> przemian blisko siebie, dla wynikowego obrazu JASNOŚĆ punktu bierzemy z
> jasności zmierzonej przez pixel

Oj, chyba nie. byłoby za proste...
Trzeba by się przyjrzeć dokładniej algorytmom, ale raczej luminancja w
dowolnym punkcie obrazu wynikowego też zależy od punktów sąsiednich.
Weź za przykład obrazek jednolicie żółty (tylko czerwony i zielony,
niebieskiego brak) i obejrzyj składową luninancji. Wątpię, żeby była w
kratkę.


--
Pozdrowienia
Janek (sygnaturka zastępcza)

Marek Lewandowski

unread,
Nov 25, 2004, 3:31:03 AM11/25/04
to
Jan Rudziński <inv...@unseen.univ.edu.pl> napisał(a):

echh... myslalem, ze wystarczy napisac duzymi literami, ze mocno upraszczam...

> Gwoli ścisłości oprócz trzech czujników kolorowych nasze oko ma
> jeszcze zestaw czujników czarnobiałych (w pewnym przybliżeniu), za to o
> czułości i rozdzielczości nieporównanie większej, niż wszystkie trzy
> kolorowe razem wzięte. Dlatego w telewizji kolorowej pasmo przenaczone
> na kolory jest kilka razy mniejsze, niż na obraz cz-b, a i tak nikt nie
> narzeka.

Ale o tym to ja pisalem. Sam nawet zacytowales...


> [...]
> > Drugie to... nie problem. Nasze oko też w każdym punkcie widzi tylko
> > jedną składową, jeśli w ogóle jakąś widzi, bo bardzo dużo sensorów w
> > ogóle koloru nie wyczuwa. Na tym zasadza się wynalazek zwany matrycą
> > Bayerowską. Sensory czułe na zielony, czerwony i niebieski pakujemy na
> > przemian blisko siebie, dla wynikowego obrazu JASNOŚĆ punktu bierzemy z
> > jasności zmierzonej przez pixel

> Oj, chyba nie. byłoby za proste...
> Trzeba by się przyjrzeć dokładniej algorytmom, ale raczej luminancja w
> dowolnym punkcie obrazu wynikowego też zależy od punktów sąsiednich.
> Weź za przykład obrazek jednolicie żółty (tylko czerwony i zielony,
> niebieskiego brak) i obejrzyj składową luninancji. Wątpię, żeby była w
> kratkę.

W kratke nie, ale kostropata bedzie. Sa dwie sprawy. Raz, ze naprawde nie
chcialo mi sie tlumaczyc od pieca calej interpolacji bayerowskiej, bo to jest
solidny kawal matematyki i obawiam sie, ze zrozumie pare osob a reszta w ogole
nie przeczyta. Jest na ten temat dosc materialu w Sieci, ale nie nalezy sie do
tego zabierac na jeden wieczor od razu uprzedzam.
Dwa, ze w normalnej sytuacji luminancja jest liczona PRZEDE WSZYSTKIm z
wartosci danego pixela, po uwzglednieniu balansu bieli. Czyli przyjmujac g za
wzorzec, po uznaniu, ze r/g = n to wartosc r jest dzielona przez n... Dopiero
gdy oprocz interpolacji zaprzegniemy jeszcze odszumianie, filtrowanie
luminancji to tak na prawde zaczynamy kombinowac...

--
Marek

Daniel Rychcik

unread,
Nov 25, 2004, 2:20:53 AM11/25/04
to
In article <co350m$pqd$1...@inews.gazeta.pl>, Marek Lewandowski wrote:
> Stąd też wiele aparatów źle oddaje głębokie fiolety i "ciekawe"
> czerwienie.

Eeee tam, źle.. w moim G5 na krawędziach jasnych obiektów fiolety są
_bardzo_ głębokie ;-)

> Na to nie ma mocnych, aparat tego dobrze sam nie zrobi, nasz łepetyna
> też sobie źle radzi - patrz oświetlone czerwono mięso w hipermarketach
> + halogeny nad jarzynkami... a hala oświetlona zimnym, świetlówkowym
> światłem... :P

Hmm.. rozumiem co przez to chcesz powiedzieć, ale w praktyce (=tych
aparatach, które obecnie mamy) wygląda to raczej odwrotnie: jeżeli
jest rzeczywiście taka wstrętna sytuacja: dużo różnych źródeł, do
tego zmieniających się, to trzeba powiedzieć sobie "sorry" i strzelać
na AWB. Przerabiałem to na wszelkiego rodzaju targach etc. - człowiek
próbuje po kolei wszystkich możliwych presetów, białej kartki.. a w
końcu macha ręką i przełącza na auto :)

(no chyba że oczywiście RAW)
Daniel
--
\ Daniel Rychcik INTEGRAL Science Data Centre, Versoix/Geneve, CH
\--------------------------------------------------------------------
\ GCM/CS/MU/M d- s++:+ a- C+++$ US+++$ P+>++ L+++$ E--- W++ N++ K-
\ w- O- M PS+ PE Y+ PGP t+ 5 X- R tv b+ D++ G+ e+++ h--- r+++ y+++

Daniel Rychcik

unread,
Nov 25, 2004, 3:56:55 AM11/25/04
to
In article <co4587$s0n$1...@inews.gazeta.pl>, Marek Lewandowski wrote:
> naprawde nie chcialo mi sie tlumaczyc od pieca calej interpolacji
> bayerowskiej, bo to jest solidny kawal matematyki

Aj tam solidny :) sama interpolacja jako taka jest raczej
nieskomplikowana - nawet co bardziej zakręcone algorytmy typu VNG to
w większości podstawowe 4 operacje. Kombinacje (logarytmy itp.)
zaczynają się dopiero przy korekcji kolorów.

> Jest na ten temat dosc materialu w Sieci, ale nie nalezy sie do
> tego zabierac na jeden wieczor od razu uprzedzam.

Zainteresowanym polecam: http://www-ise.stanford.edu/~tingchen/main.htm
Łopatologicznie i całościowo. Na poziomie szkoły średniej ;-)

Marek Lewandowski

unread,
Nov 25, 2004, 4:09:08 AM11/25/04
to
Daniel Rychcik <muf...@ultra60.mat.uni.torun.pl> napisał(a):

>> naprawde nie chcialo mi sie tlumaczyc od pieca calej interpolacji
>> bayerowskiej, bo to jest solidny kawal matematyki

> Aj tam solidny :) sama interpolacja jako taka jest raczej
> nieskomplikowana - nawet co bardziej zakręcone algorytmy typu VNG to
> w większości podstawowe 4 operacje. Kombinacje (logarytmy itp.)
> zaczynają się dopiero przy korekcji kolorów.

niom. Tylko wiesz, przeceniasz spoleczenstwo :)
Bo dla mnie to sa dwie rzeczy: zrozumiec, jak cos sie liczy, a zrozumiec o co
w tym chodzi i skad sie to wzielo...
Ja wiem, ze pisanymi w wolnych chwilach "wykladami goscinnymi" nie naucze
nikogo niczego sensownego, mam raczej nadzieje, ze uda mi sie wyjasnic, skad
sie niektore problemy biora i ewentualnie zachecic do poczytania dalej.
Przeszkadza mi bardzo tendencja behawiorystycznego traktowania rzeczy - "to
sie naciska, tak wychodzi". Powiedz mi, tak szczerze, to ile osob na tej
grupie rozumie w ogole SKAD sie glebia ostrosci na zdjeciu bierze? Nie, nie
sugeruje, ze nikt, raczej wierze, ze nasz zespol "guru" doskonale wie, ale mam
na mysli "przechodniow" na grupie? A przeciez jest to zjawisko, ktorego
mechanizm powstawania w _podstawach_ jest do wymyslenia na piechote nawet bez
kartki papieru. Wystarczy podstawowy dzial optyki ze szkoly podstawowej.

Mam w planach - jesli znowu kiedys bede mial wolny czas - napisac troche o
podstawach optyki. Na pewno nie bede w stanie podejsc do tego jak Dizel, nawet
nie bede probowal, za to chcialbym wyjasnic po ludzku zwiazek miedzy
rownaniami i fizyka a tym, co na zdjeciu. Na pewno nie wyniknie z tego
kompkletne wyjasnienie, ale moze komus da to latwiejsze zaczepienie do
wlasnego drazenia tematu.
Nie wiem, czy takie podejscie ma sens, zobaczymy. Na razie robie to dla
zabawy.

> > Jest na ten temat dosc materialu w Sieci, ale nie nalezy sie do
> > tego zabierac na jeden wieczor od razu uprzedzam.

> Zainteresowanym polecam: http://www-ise.stanford.edu/~tingchen/main.htm
> Łopatologicznie i całościowo. Na poziomie szkoły średniej ;-)

Dzieki za linka, To jest dosc kompletne, ale raczej na zasadzie: tak jest, tak
sie to liczy. Wiec niezle uzupelnienie jako dalsza lektura :)
pozdrawiam!
--
Marek Lewadnowski

Jan Rudziński

unread,
Nov 25, 2004, 4:18:21 AM11/25/04
to
Cześć wszystkim

Użytkownik Marek Lewandowski napisał:

[...]
>
>

>>Zainteresowanym polecam: http://www-ise.stanford.edu/~tingchen/main.htm
>>Łopatologicznie i całościowo. Na poziomie szkoły średniej ;-)
>
>
> Dzieki za linka, To jest dosc kompletne, ale raczej na zasadzie: tak jest, tak
> sie to liczy. Wiec niezle uzupelnienie jako dalsza lektura :)


No ale wychodzi na moje - przynajmniej jeśli chodzi o metody
prymitywniejsze (nieadaptatywne).
W astrakcyjnym teoretycznym przypadku idealnie żółtego obrazu każdy
piksel wynikowy będzie identyczny, mimo że na wejściu ich luminanacja
jest poszarpana.

A morał (smutny) jest taki, że na żadnym etapie nie tylko nie
dysponujemy 'prawdziwą' chrominancją (co można przeboleć) ale i
'prawdziwej' luminancji nie mamy.

Marek Lewandowski

unread,
Nov 25, 2004, 4:36:00 AM11/25/04
to
Jan Rudziński <inv...@unseen.univ.edu.pl> napisał(a):

>>>Zainteresowanym polecam: http://www-ise.stanford.edu/~tingchen/main.htm
>>>Łopatologicznie i całościowo. Na poziomie szkoły średniej ;-)

>> Dzieki za linka, To jest dosc kompletne, ale raczej na zasadzie: tak jest,
>> tak sie to liczy. Wiec niezle uzupelnienie jako dalsza lektura :)

> No ale wychodzi na moje - przynajmniej jeśli chodzi o metody
> prymitywniejsze (nieadaptatywne).
> W astrakcyjnym teoretycznym przypadku idealnie żółtego obrazu każdy
> piksel wynikowy będzie identyczny, mimo że na wejściu ich luminanacja
> jest poszarpana.

Co do tego, to jak to mowia starozytni Rosjanie, to ZALEZY.

Bo wez jedna rzecz pod uwage: interpolacja bayerowska taka, jak tam na www
opisana, jedzie PO zrobieniu balansu bieli. Innymi slowy co aparat wypluje
zaley tez od tego, jak aparat zrobi balans bieli przy monochromatycznym zoltym
swietle. Zapewne zglupieje. Nastepna sprawa to to, ze popelniasz blad,
zakladajac, ze separacja barw jest stuprocentowa. W praktyce zolte swiatlo
pobudzi wszystkie trzy kolory sensorow. Mowiac krotko: ta matematyka
opublikowana na tamtym www wystarcza, aby zrobic interpolacje bayerowska, ale
nie, zeby miec z tego dobre kolorystycznie zdjecie. Jest duza szansa, ze w co
lepszych aparatach siedzi co inteligentniejszego.
Jasne, ujecie, ze jasnosc wynika tylko z tego pixela, jest uproszczeniem. Ale
uwazam, tak na oko, ze jak policzyc pochodna chrominancji po wartosciach
sasiednich pixeli i pochodna luminancji w danym punkcie (tez po sasiadach) to
dla normalnego aparatu wyjdzie, ze chroma silniej zalezy od sasiadow.



> A morał (smutny) jest taki, że na żadnym etapie nie tylko nie
> dysponujemy 'prawdziwą' chrominancją (co można przeboleć) ale i
> 'prawdziwej' luminancji nie mamy.

tego nikt nie obiecywal. Tylko wyzsza rozdzielczosc luminancji niz
chrominancji. Owszem, mozna sprawe spaskudzic prostym interpolowaniem koloru,
ale to nie wina matrycy.

--
pozdrowienia!
Marek

Daniel Rychcik

unread,
Nov 25, 2004, 5:38:20 AM11/25/04
to
In article <co4920$f6r$1...@inews.gazeta.pl>, Marek Lewandowski wrote:
> Bo wez jedna rzecz pod uwage: interpolacja bayerowska taka, jak tam na www
> opisana, jedzie PO zrobieniu balansu bieli.

Niekoniecznie. Tam są opisane po prostu algorytmy interpolacji. Nie pamiętam,
żeby autor zagłębiał się w korekcję kolorów (ale już dość dawno czytałem).

To są dwa zupełnie rozłączne problemy. Ja, gdy kiedyś mnie naszło na
zrobienie jakiegoś CRW->JPG, próbowałem korekcji zarówno przed (selektywnie,
na stosownych pikselach) jak i po (na całym RGB) interpolacji. I wyniki były
całkiem podobne. Hmm.. powiedzmy, że równie kiepskie ;-) Ale głównie z
powodu poniżej:

> Mowiac krotko: ta matematyka opublikowana na tamtym www wystarcza, aby zrobic
> interpolacje bayerowska, ale nie, zeby miec z tego dobre kolorystycznie
> zdjecie.

Popieram. Powiem więcej, interpolacja to jest pikuś - na zdjęciu 20x30 z
6mpix różnice między bilinear a jakimiś tam super-algorytmami adaptacyjnymi
są widoczne chyba tylko z lupą. 99% trudności dobrej konwersji RAW to
właśnie te cholerne współczynniki...

Marek Lewandowski

unread,
Nov 25, 2004, 6:45:08 AM11/25/04
to
Daniel Rychcik <muf...@ultra60.mat.uni.torun.pl> napisał(a):

>> Bo wez jedna rzecz pod uwage: interpolacja bayerowska taka, jak tam na www
>> opisana, jedzie PO zrobieniu balansu bieli.

> Niekoniecznie. Tam są opisane po prostu algorytmy interpolacji.
> Nie pamiętam, żeby autor zagłębiał się w korekcję kolorów (ale już dość
> dawno czytałem).

Algorytmy gradientowe, logarytmujace itd IMO beda dawaly gorsze efekty, jesli
bedzie sie balansowac biel post factum.



> To są dwa zupełnie rozłączne problemy.

Poki interpolacja jest transformacja liniowa i odwracalna, to tak.

> Ja, gdy kiedyś mnie naszło na
> zrobienie jakiegoś CRW->JPG, próbowałem korekcji zarówno przed (selektywnie,
> na stosownych pikselach) jak i po (na całym RGB) interpolacji. I wyniki były
> całkiem podobne. Hmm.. powiedzmy, że równie kiepskie ;-) Ale głównie z
> powodu poniżej:

>> Mowiac krotko: ta matematyka opublikowana na tamtym www wystarcza, aby
>> zrobic interpolacje bayerowska, ale nie, zeby miec z tego dobre
>> kolorystycznie zdjecie.

> Popieram. Powiem więcej, interpolacja to jest pikuś - na zdjęciu 20x30 z
> 6mpix różnice między bilinear a jakimiś tam super-algorytmami adaptacyjnymi
> są widoczne chyba tylko z lupą. 99% trudności dobrej konwersji RAW to
> właśnie te cholerne współczynniki...

Jakosc implementacji i sam algorytm interpolacji wyleza w obszarach
morogennych. Bledy koloru na krawedziach obszarow kontrastowych sa w tanich
cyfrakach maskowane przez duzo wieksza CA, albo wraz z nia wrzucane do jednego
kubelka. Ale kolorowa mora jest latwiej zauwazalna - wylazi wlasnie tam, gdzie
sobie algorytm interpolacji nie poradzil...

// OT: Widze, ze tekst przeczytali ludzie, ktorzy sie na rzeczy znaja i im i
tak nie byl potrzebny, bo to wiedza :P Szkoda, bo w sumie to adresowalem go do
tych, ktorzy o sprawie maja nikle pojecie... czyli chyba nie trafilem w temat
:)

--
Pozdrowka, Marek

chomsky

unread,
Nov 25, 2004, 7:07:52 AM11/25/04
to
"Marek Lewandowski" <mare...@NOSPAM.gazeta.pl> wrote in message news:<co3tvb$3l8$1...@inews.gazeta.pl>...

Dzieki za znakomity wyklad,com niewiedzial juz wiem,a com
zapopomnial przypomnialem.Czesc.Ch.P.s.pisz dalej a duzo i czesto.

grzes

unread,
Nov 25, 2004, 8:12:08 AM11/25/04
to
Dnia 2004-11-25 12:45, Użytkownik Marek Lewandowski napisał:
> // OT: Widze, ze tekst przeczytali ludzie, ktorzy sie na rzeczy znaja i im i
> tak nie byl potrzebny, bo to wiedza :P Szkoda, bo w sumie to adresowalem go do
> tych, ktorzy o sprawie maja nikle pojecie... czyli chyba nie trafilem w temat
> :)

Spokojnie, daj chociaż parę godzin na przetrawienie tekstu :-)

gw


Daniel Rychcik

unread,
Nov 25, 2004, 10:45:03 AM11/25/04
to
In article <co4gk4$kud$1...@inews.gazeta.pl>, Marek Lewandowski wrote:
> Algorytmy gradientowe, logarytmujace itd IMO beda dawaly gorsze efekty,
> jesli bedzie sie balansowac biel post factum.

Hmm faktycznie, o tym nie pomyślałem. Nawet nie tyle będą dawać różne
efekty, co po prostu będą wymagały przeróbek :)

> // OT: Widze, ze tekst przeczytali ludzie, ktorzy sie na rzeczy znaja i im i
> tak nie byl potrzebny, bo to wiedza :P Szkoda, bo w sumie to adresowalem go do
> tych, ktorzy o sprawie maja nikle pojecie... czyli chyba nie trafilem w temat

Dyskusja w googlach zostanie :)

Reply all
Reply to author
Forward
0 new messages