Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Mistä johtuu ongelma kontrastierojen kanssa?

50 views
Skip to first unread message

Sakari Hannula

unread,
Jun 6, 2006, 1:45:46 PM6/6/06
to
Törmäsin kuvaamassa ollessani muutamaan omaksi ilokseen räpsyttelevään
ihmiseen, joiden kanssa keskustellessa esittivät he hyvän kysymyksen,
johon en osannut vastata ja edelleenkin asia on epäselvä.

Kysymys oli siitä, miksi kameralla ei millään saa oikein valottunutta
kuvaa tilanteessa, jossa kuvassa on hyvin suuria kontrastieroja.
Esimerkiksi kuvatessa aurinkoisena päivänä pellolla latoa, mutta ei
kuitenkaan vastavaloon. Jos kuvaan haluaa oikein valotetun, silmälle
oikean sävyisen ladon, taivas ja pilvet palavat. Jos valotetaan taivaan
mukaan, lato on melkein musta. Molemmat kohteet ovat siinä tilanteessa,
siinä paikassa valotettavissa oikein, mutta se ei onnistu samaan kuvaan.
Mistä johtuu? Miksi kuvaaja näkee sen OK, mutta kamera ei? No, enpä
tiennyt mitä heille sanoa ja maistelin kysymystä oikeastaan ensimmäistä
kertaa tosissani itsekin. Tähän asti se on 'vain' ollut yksi
valokuvaamisen ongelmia, joita digikaudella on ollut helpompi lääkitä.

Yritin netistä löytää syytä tai selitystä, mutta lähinnä löysin vain
keinoja korjata tuo ongelma jälkikäteen. Nyt asia on jäänyt vaivaamaan
ja kiinnostaisi tietää, mistä tuo johtuu; kameran kykenemättömyys
taltioida kuva, kuten kuvaaja sen itse tilanteessa omin silmin näkee.

Jotenkin aavistelen, että vastaus on jotain ilmeisen helppoa tai
yksinkertaista, mitä ei taas osaa edessään nähdä, mutta kysytään nyt
julkisesti apua kuitenkin. ;)

.s

Markus Lehto

unread,
Jun 6, 2006, 2:05:59 PM6/6/06
to
Sakari Hannula wrote:
> Kysymys oli siitä, miksi kameralla ei millään saa oikein valottunutta
> kuvaa tilanteessa, jossa kuvassa on hyvin suuria kontrastieroja.

Kameran dynamiikka on auttamattoman pieni verrattuna ihmissilmän (ja
muun näkökaluston) dynamiikkaan. Siinä syy. Ja taitaa nykyisten
tallennusformaattienkin rajat tulla vastaan? Eli bittimäärä ei riitä.

Tilanteeseen ei ole juuri muuta ratkaisua, kuin napsia muutama kuva ja
yhdistellä jälkeenpäin. Kannattaa tutustua High Dynamic Range -kuvaukseen.

--
-Markus Lehto

Toni Nikkanen

unread,
Jun 6, 2006, 2:07:37 PM6/6/06
to
Markus Lehto <mal...@POISTAutu.fi> writes:

> Tilanteeseen ei ole juuri muuta ratkaisua, kuin napsia muutama kuva ja
> yhdistellä jälkeenpäin. Kannattaa tutustua High Dynamic Range
> -kuvaukseen.

Tai sitten voi ottaa ne kuvat värinegalla :)

Markus Lehto

unread,
Jun 6, 2006, 2:18:55 PM6/6/06
to
Toni Nikkanen wrote:
> Tai sitten voi ottaa ne kuvat värinegalla :)

...tai tyytyä vain katselemaan ;)

--
-Markus Lehto

Sakari Hannula

unread,
Jun 6, 2006, 2:21:21 PM6/6/06
to
Markus Lehto wrote:
> Kameran dynamiikka on auttamattoman pieni verrattuna ihmissilmän (ja
> muun näkökaluston) dynamiikkaan. Siinä syy. Ja taitaa nykyisten
> tallennusformaattienkin rajat tulla vastaan? Eli bittimäärä ei riitä.
>
> Tilanteeseen ei ole juuri muuta ratkaisua, kuin napsia muutama kuva ja
> yhdistellä jälkeenpäin. Kannattaa tutustua High Dynamic Range -kuvaukseen.

Jep, dynamiikkaa minäkin vastaukseksi tapailin. Ongelmana on selittää se
niin, että sen ymmärtää selkokielellä. Pelkkä rajoittunut dynamiikka
johtuen liian alhaisesta bittimäärästä jättää vielä vastaamatta sillä
tasolla, millä kysyjät vastausta hakivat. Mutta tässä ajatuksia
selviteltyäni, alkaa sellainenkin vastaus hiljalleen muotoutua. :)

.s

Simo Salanne

unread,
Jun 6, 2006, 2:31:36 PM6/6/06
to
Sakari Hannula wrote:

>
> Jep, dynamiikkaa minäkin vastaukseksi tapailin. Ongelmana on selittää se
> niin, että sen ymmärtää selkokielellä. Pelkkä rajoittunut dynamiikka
> johtuen liian alhaisesta bittimäärästä jättää vielä vastaamatta sillä
> tasolla, millä kysyjät vastausta hakivat. Mutta tässä ajatuksia
> selviteltyäni, alkaa sellainenkin vastaus hiljalleen muotoutua. :)
>

Selitä ettei lusikkaan mahdu yhtä paljon digivaloa kuin kahvikuppiin.

Simo S.

Harri Suomalainen

unread,
Jun 6, 2006, 2:56:40 PM6/6/06
to
Dynamiikan lisäksi vaikuttaa silmän säätöominaisuudet. Kun tuijotat sitä
tummaa latoa, pupilli aukeaa ja päästää enemmän valoa. Kun katse kiertää
kirkasta taivasta pupilli taas supistuu. Silmän dynamiikka samalla
aukolla ei taida niin kovin huima olla, mutta pupillin säätelyn kanssa
katseltava dynaaminen alue kasvaa paljonkin.

Kameran pupilli - aukko - taas on sama koko kuvalle.

Asiaa voi jossain määrin kiertää (hdr-kuvia realistisemmin) mm.
kuvaamalla raw-kuvana jotta pääsee yli 8 bitin ja käyttämällä ns.
kontrastimaskeja jälkikäsittelyn osana. Tätähän se silmäkin tekee tavallaan.

--
harri

TImo Autiokari

unread,
Jun 6, 2006, 3:01:18 PM6/6/06
to
Sakari Hannula wrote:

> miksi kameralla ei millään saa oikein valottunutta kuvaa
> tilanteessa, jossa kuvassa on hyvin suuria kontrastieroja.

Tämä on monen seikan summa, lyhyesti:

1) Kamerat ovat enemmän tai paljon enemmän huonolaatuisia, siis niiden
dynaaminen alue on pieni eli ensinnäkin ne eivät kykene rekisteröimään
kohteen koko dynaamista aluetta. Toiseksi tummassa päässä on paljon
kohinaa, siksi kameravalmistajat vääntävät toistokäyrän siten että tumma
pää ei erotu väriteknisesti oikein eli ei erotu kunnolla. Profilointi
auttaa jälkimmäiseen siten että saadaan vähän enemmän detaljia näkyviin
sieltä tummasta päästä mutta samalla tulee se kohinakin esiin.

2) yleensä ko tilanne on sellainen että kohteen absoluuttinen
luminanssitaso on suuri, kymmeniä tai jopa satoja kertoja suurempi kuin
mihin näytöt kykenevät (ja mitä normaalisti valaistu tuloste esittää).
Näköaisti toimii näissä tilanteissa jonkin verran eritavoin. Ensinnäkin
näköaistin toistokäyrä on ko tilanteissa jonkin verran erilainen,
paremmin valaistun tilanteen eduksi. Toiseksi, tummassa päässä monitorin
(sekä heikohkosti valaistun tulosteen) tumma pää putoaa pois näköaistin
photopic alueelta (päivänvaloon sopeutunut näkökyky) eli se erottaa
kuvan tummassa päässä olevan detaljin erittäin huonosti jos ollenkaan.
Siellä aidossa tilanteessa kohteen vastaava tumma alue on vielä
mainiosti näköaistin photopic alueella. Nykymonitorien mitattavissa
oleva dynaaminen alue saattaa olla varsin suuri (esim 1000:1) mutta osa
tai suuri osa siitä on näköaistin photopic alueen alapuolella. Lisäksi
monitorien dynaamista aluetta rajoittaa rankasti kaikki se valo joka
näytölle lankeaa huonevalaistuksen takia, toteutuva dynaaminen alue voi
olla niinkin pieni kuin 50:1. Parhaiden tulosteiden dynaaminen alue
puolestaan on vain 200:1 mutta normaalisti rajusti pienempi. Näidenkin
takia tummat alueet kuvassa erottuvat huonommin kuin vastaavat alueet
luonnossa.

3) Näköaistin valo-adaptaatio on myös/osittain paikallinen, sen
voimakkuus riippuu kuvannuksen koosta, siis kuvannussuhteesta. Esim
pimeähkön tunnelin aukko saattaa kuvantua silmään valtavasti
suurempikokoisena kun sitä siellä kuvauskohteessa tarkastellaan
verrattuna siihen minkä kokoisena ko tunnelin aukko kuvantuu kun sitä
katsotaan ruudulla esitetystä valokuvasta tai tulostetusta kuvasta.
Näköaisti kykenee jonkin verran adaptoitumaan lokaalin
luminanssimaksimin suuntaan kun ko alue kuvantuu riittävän
suurikokoisena mutta monitorin esittämää kuvaa tarkastellessa se on
adaptoituneena monitorin esittämään absoluuttiseen luminanssimaksimiin
(yleensä siis max valkoiseen) koska jo koko monitori kuvantuu varsin
pienikokoisena täyteen näkökenttään verrattuna puhumattakaan siitä
pikkuruisesta tunnelin aukosta jossakin päin kuva-alaa. Eli monitorin ja
tulosteen esittämä tumma alue yleensä erottuu tämänkin takia tummempana
kuin miltä vastaava alue näytti luonnossa.

Timo Autiokari

Väinö Louekari

unread,
Jun 6, 2006, 3:24:42 PM6/6/06
to
Mielenkiintoinen kysymys. Onko todellinen maailma se, minkä me
aisteillamme koemme vai onko todellinen maailma se, mikä instrumenteilla
tallennetaan. Ihmissilmä korjaa (?) värilämpötilan vaihtelut, filmi ei,
digissä korjataan jos osataan tai jos niin käsketään. Meidän aistimme
kertovat yhtä, kamera (digi tai filmi) toista, lepakon tai maamyyrän
aistit jotakin aivan muuta.
Maailmaa sellaisenaan ei kukaan tai mikään saa kiinni.
No, asiaan. Ihmissilmä plus aivot on toisenlainen operoija kuin filmi
tai digikamera. Me tasaamme (jos nyt oletetaan joku absoluuttinen
referenssi) kontrastivaihteluja koska se on meille olioina mielekästä.
Värinega tasaa myös, se on sellaiseksi rakennettu ja tallentaa ehkä 10
E.V. jos hajavaloa ei oteta huomioon. Dia ei tasaa, sen kanssa pitää
olla tarkka, dia tyypillisesti tallentaa 5 - 6 EV. Kuluttajadigit
polttavat vaalean pään hyvin herkästi puhki, kalliimpien digien kyky
tallettaa kontrastieroja alkaa lähennellä värinegaa.
Mitä sitten tehdä? Perinteinen neuvo on päättää mikä on lopullisen kuvan
kannalta tärkein elementti ja huolehtia valotus sen mukaan. Näin
digiaikaan asia on helpompi, niin pitkään kuin molemmissä ääripäissä on
jotakin informaatiota, on mahdollista Photoshopilla tai vastaavalla
saada jotakin aikaiseksi. Aina tuo ei kuitenkaan ole mahdollista,
useammin tavallista kuvankäyttäjää luultavasti kiusaa puhki palanut
valkoinen kuin täysi musta joten ehkä hyvin karkeana nyrkkisääntönä voi
yrittää elää sen mukaan. Tietty jos tietää mikä on kuvassa keskeistä, ei
tämä välttämättä ole ongelma, sitten vain säädetään valotusta sen mukaan.
Niin no, sitten voi toki kuvata värinegalle.

Väinö Louekari

TImo Autiokari

unread,
Jun 6, 2006, 3:39:31 PM6/6/06
to
Markus Lehto wrote:

> Kameran dynamiikka on auttamattoman pieni verrattuna
> ihmissilmän (ja muun näkökaluston) dynamiikkaan. Siinä syy.

Ei ole.

Näköaistin "kokonaisdynamiikka" kyllä on erittäin suuri, näemme
(jotakin) pimeässä yössä vain tähtien valon alla ja toisaalta näemme
(jotakin) kirkkaimman auringon valon alla. Näin tarkastelleen näköaistin
dynaaminen toiminta-alue on luokkaa 10000000000:1 jos ei enemmänkin.
Tämän mahdollistaa näköaistin ominaisuus jota kutsutaan valo-adaptatioksi.

_Täsmälleen_ samalla tavalla adaptoituu myös kamera, sen aukko ja aika
säädöt vastaavat täsmälleen tuota näköaistin valo-adaptatiota. (Jos ne
eivät riitä niin sitten vaan densiteettifiltteriä objektiivin eteen).
Kameralla saadan kuva kuva kummassakin yllä olevassa olosuhteessa, siis
(jotakin) kuvainformaatiota tallentuu.

Mutta kun näköaisti tarkastelee mitä tahansa kohdetta muuttumattoman
valaistuksen alla niin näköaistin ns hetkellinen dynaaminen alue on vain
luokkaa 7 ... 9 stoppia (riippuu paikallisesta adaptaatiosta).

Tuo "hetkellinen dynaaminen alue" ei tarkoita kirjaimellisesti "lyhyttä
hetkeä" vaan sitä hetkeä, oli se kuinka lyhyt tai pitkä hetki tahansa,
jonka aikana valaistuksen voimakkuus ei muutu.

Hetkellinen dynaaminen alue siis on dynamiikka kohteen vaaleimmasta
pinnasta kohteen siihen tummaan pintaan jotka näköaisti yhtäaikaisesti
kykenee rekisteröimään (muuttumattoman valaistuksen vallitessa). Tämä on
_täysin_ eri asia kuin näköaistin dynaaminen toiminta-alue (siis että
kykenemme näkemaan jotakin niin äärimmäisen hämärässä kuin myös
äärimmäisen kirkkaassa olosuhteessa).

... Eli, emme alkuunkaan erota tuollaista 10000000000:1 dynamikkaa
_yhtäaikaisesti_ mistään kohteesta. Mikäli kykenisimme sen erottamaan
niin meillä ei olisi nykyisen kaltaisia (filmi sekä digi) kameroita
lainkaan sillä niitä pidettäisiin aivan totaalisen kelvottomina. Mutta
me erotamme vain tuon 7 ... 9 stoppia yhtäaikaisesti joten nykykameroita
pidetään juuri ja juuri kelvollisina (sillä ne omaavat niin ikään about
7 ... 9 stoppia hetkellistä dynamiikkaa, siis kun aukko ja aika pidetään
muuttumattomana).

>Ja taitaa nykyisten tallennusformaattienkin rajat tulla vastaan? Eli
bittimäärä ei riitä.

Ei tule, jopa 8-bit/kanava muodossa sadRGB:n toistokäyrä koodaa paljon
enemmän kuin mitä näköaistin hetkellinen dynaaminen alue on. AdobeRGB:n
gamma 2.2 toistokäyrä koodaa rajusti enemmän.

> Tilanteeseen ei ole juuri muuta ratkaisua, kuin
> napsia muutama kuva ja yhdistellä jälkeenpäin.

Kyllä tähän ongelmaan merkittävästi auttaa normaalit
kuvankäsittelytoimenpiteet vaikkakaan ne eivät täydellistä ratkaisua tarjoa.

Timo Autiokari

Mikko Tapani Reinikainen

unread,
Jun 7, 2006, 4:24:50 AM6/7/06
to
In article <e64g4k$un$1...@bowmore.utu.fi>,
Markus Lehto <mal...@POISTAutu.fi> wrote:
>Eli bittimäärä ei riitä.

Bittimäärällä ei ole tämän kannalta merkitystä. On vain
sopimuskysymys, miten suurta dynaamista aluetta esimerkiksi
kahdeksalla bitillä esitettävät 256 sävyarvoa esittävät.

Vaikka kameralla pystyisikin tallettamaan suurikontrastisen näkymän
koko dynaamisen alueen, vaikeampaa on toistaa kuva sellaisena kuin
kuvaaja sen näki. Heijastuvaan valoon perustuvalla paperivedoksella on
tietty maksimimusta, joka kuitenkin heijastaa jonkin verran
valoa. Samoin läpivalaisuun toimivan diakuvan mustinkin musta päästää
jonkin verran valoa läpi. Näyttölaitteissa rajoittaa maksimiustan
lisäksi laitteesta saatava maksimikirkkaus.

- Mikko Reinikainen

Timo

unread,
Jun 7, 2006, 4:39:40 AM6/7/06
to
On 2006-06-07, Mikko Tapani Reinikainen <mtre...@cc.hut.fi> wrote:
> Bittimäärällä ei ole tämän kannalta merkitystä. On vain
> sopimuskysymys, miten suurta dynaamista aluetta esimerkiksi
> kahdeksalla bitillä esitettävät 256 sävyarvoa esittävät.

No on sillä sikäli, että nuo sovitut 256 sävyarvoa pitää jakaa jotenkin
jollekin kikkausalueelle. Kyse on siis kompromissista dynaamisen alueen
ja sävyresoluution välillä. Käytännössä siis on aina jokin kikkain kirkas
ja tummin tumma ja niiden välinen ero voi olla kapeampi kuin kuvattavassa
kohteessa.

On myös niin, että fotoneita keräävällä elemetillä (nykyään CCD tai CMOS)
on käytännössä jokin maksimivaraus. Jos aukko ja valotusaika säädetään niin,
että kirkkaimman kohdan tallentavat elementit saavuttavat maksimivarauksen
niin on teoriassa mahdollista, että on joku joukko tummia sävyjä joille ei
osu ainuttakaan fotonia tuossa ajassa tuolla aukolla.

Lopulta syy dynaamisen alueen rajallisuuteen on siis sama, kuin syy miksi
kameralla ei voi kuvata hullun pimeässä tai älyvapaan kirkkaassa (niin
kirkkassa, että nopein suljin aika pienimmällä aukolla ylivalottaa rankasti):
kenno ei reagoi aivan pienimpiin valon määriin ja saturoituu suurilla määrillä.

--
Timo

Ville Voipio

unread,
Jun 7, 2006, 6:30:02 AM6/7/06
to
In article <slrne8d46d....@amadeus.cc.tut.fi>, Timo wrote:
> On 2006-06-07, Mikko Tapani Reinikainen <mtre...@cc.hut.fi> wrote:
>> Bittimäärällä ei ole tämän kannalta merkitystä. On vain
>> sopimuskysymys, miten suurta dynaamista aluetta esimerkiksi
>> kahdeksalla bitillä esitettävät 256 sävyarvoa esittävät.
>
> No on sillä sikäli, että nuo sovitut 256 sävyarvoa pitää jakaa jotenkin
> jollekin kikkausalueelle. Kyse on siis kompromissista dynaamisen alueen
> ja sävyresoluution välillä. Käytännössä siis on aina jokin kikkain kirkas
> ja tummin tumma ja niiden välinen ero voi olla kapeampi kuin kuvattavassa
> kohteessa.

Jahas. Taas tämä keskustelu. Ongelma on siinä, että dynaamiikalla on
kaksi eri määritelmää, joita kumpaakin perustellusti käytetään:

1. lineaarinen määritelmä: Suuren signaalin päällä olevan pienen
signaalin erottuvuus. Tässä määritelmässä bittimäärä antaa ehdottoman
maksimin dynamiikalle, koska puhtaasti lineaarinen vaste on paras.
Matemaattisessa käsittelyssä lineaarinen malli on kaikin puolin mukavin,
mutta se ei mallinna silmää kovin hyvin. Kirkkaalla alueella olevat
pienetkin erot näkyvät, ts. tähdet saa näkyviin päivätaivaalta, kun
vain käsittelee kuvaa. (Kameroiden kennot ovat luonteeltaan lineaa-
risia.)

2. suurimman ja pienimmän signaalin suhde: Pientä erotettavaa
signaalia verrataan suurimpaan erotettavaan signaaliin. Tällöin
bittimäärällä ei ole mitään tekemistä dynamiikan kanssa, koska
toistokäyrä on epälineaarinen. Gamma-käyrä on epälineaarinen, jne.
Huonona puolena on laskennan vaikeus esimerkiksi suodatuksessa ja
se, että kirkkaalta alueelta menetetään pienet vaihtelut, jolloin
käsittelylläkään niitä ei saa esiin. Hyvä puoli on se, että
silmäkin toimii näin, ja pienellä bittimäärällä saa ison dynamiikan.


En minä uskalla sanoa kumpaakaan määritelmää vääräksi. Minulle
dynamiikka tuo ensin mieleen lineaarisen määritelmänsä, mutta
ymmärrän vastakkaisetkin perustelut.

Maailmalla on CMOS-sensoreita, joiden dynamiikaksi annetaan 120 tai
jopa 140 dB. Tämä on puoliksi huijausta, koska desibelit on
laskettu väärin (intensiteetti on tehosuure, jolloin oikeat luvut
olisivat 60 dB ja 70 dB). Mutta aika vaikuttavaa silti. Tuollaisella
kameralla voi ottaa kuvan tunnelissa aurinkoista tunnelin suuta
kohden ja nähdä sekä ulos että sisälle. Tai ottaa pimeällä kuvan
vastaantulevasta autosta ja saada rekisterikilven selvästi esiin
ylivalottamatta ajovaloja. Dynamiikkaa on siis 1:1 000 000 tai
enemmän. Selvästi silmää parempi suoritus.

Näissä sensoreissa on kuitenkin joukko heikkouksia, joiden takia
niitä ei kameroissa juuri nähdä. Suurin murhe lienee kohinan
lisääntyminen ja huono herkkyys.

Lineaarisessa kamerassa yksittäisen pikselin dynamiikan määrää
pikselin maksimivaraus. Se taas riippuu nykytekniikalla lähinnä
pikselin pinta-alasta. Aika usein dynamiikka rajautuu myös siitä,
että valoa ei ole tarpeeksi. Tuhannella fotonilla ei saada kovin
hyvää dynamiikkaa, vaikka kuinka yrittäisi.

- Ville

--
Ville Voipio, Dr.Tech., M.Sc. (EE)

Timo

unread,
Jun 7, 2006, 8:53:24 AM6/7/06
to
On 2006-06-07, Ville Voipio <vvo...@kosh.hut.fi> wrote:
>
> Jahas. Taas tämä keskustelu. Ongelma on siinä, että dynaamiikalla on
> kaksi eri määritelmää, joita kumpaakin perustellusti käytetään:
>
> 1. lineaarinen määritelmä: Suuren signaalin päällä olevan pienen
> signaalin erottuvuus. Tässä määritelmässä bittimäärä antaa ehdottoman
> maksimin dynamiikalle, koska puhtaasti lineaarinen vaste on paras.

No onhan se tietysti niinkin. Biteistä on kuitenkin tässä
yhteydessä tavallaan turha höpistä, koska se ei ole se mikä oikeasti
kameran suorituskykyä rajoittaa. Uskon että vähänkään järkevässä kamerassa
on RAW-moodissa bittejä riittävästi kuvaamaan kennon varaukset sillä
tarkkuudella ja lukualueella millä ne voidaan sieltä järkevästi lukea.

> Lineaarisessa kamerassa yksittäisen pikselin dynamiikan määrää
> pikselin maksimivaraus. Se taas riippuu nykytekniikalla lähinnä
> pikselin pinta-alasta. Aika usein dynamiikka rajautuu myös siitä,
> että valoa ei ole tarpeeksi. Tuhannella fotonilla ei saada kovin
> hyvää dynamiikkaa, vaikka kuinka yrittäisi.

Niin, eli käytetyn elektroniikan ominaisuudet rajoittavat valon määrän
mittausta sekä yläältä, että alhaalta ja myös lähekkäisten sävyjen
erottelua tuolla välillä. Siis molempien dynamiikan määritelmien osalta.

Teoriassa lienee mahdollista tehdä kamera, jolla olisi rajaton dynaaminen
alue. Fotonilaskureita vaan rasteriin ja tulokset ilmoitetaan bignumeina
(http://en.wikipedia.org/wiki/Bignum). Hinta ei varmaankaan vaan
mielyttäisi kuluttajia. Lisäksi tällaisella optimaalisellakin kameralla
valon määrä rajoittaa sävyjen erottelua.

Alkuperäiseen kysymykseen voi siis aivan perustellusti vastata, että
koska (ko. kameralla) ei vaan voi. =)

--
Timo

Ville Voipio

unread,
Jun 7, 2006, 10:19:13 AM6/7/06
to
In article <slrne8dj25....@amadeus.cc.tut.fi>, Timo wrote:

> Niin, eli käytetyn elektroniikan ominaisuudet rajoittavat valon määrän
> mittausta sekä yläältä, että alhaalta ja myös lähekkäisten sävyjen
> erottelua tuolla välillä. Siis molempien dynamiikan määritelmien osalta.

Kyllä, mutta eri tavalla. Jos kameran täyden pikselin varaus on
50000 elektronia, sen kvanttikohina on neliöjuuri tästä (noin 230 e-).
Niinpä dynamiikka lineaarisen määritelmän mukaan lasketaan näiden
suhteesta ja on 1:230. Tuosta rajasta ei mennä yli optiikkaa
muuttamatta. Elektroniikalla ei ole mitään tekoa asian kanssa.

Jos taas lasketaan pienin erottuva signaali ja suurin erottuva
signaali, niin se suurin on 50000 e- ja pienin 1 e-, jolloin
dynamiikka näin laskettuna on 1:50000. Käytännössä kuitenkin
tässä tapauksesssa muu kohina (terminen kohina, lukukohina)
tulevat rajoittamaan suorituskykyä esimerkiksi luokkaan 1:5000 tai
1:1000. Tässä elektroniikan parantaminen, jäähdyttäminen tai
muu voi parantaa tilannetta.

Huomionarvoisaa on siis se, että eri laskutavoilla eri kohina-
mekanismit saavat painon. Samalle kameralle voidaan ilmoittaa
aivan eri dynamiikka, kun laskutapa otetaan sopivaksi.

> Teoriassa lienee mahdollista tehdä kamera, jolla olisi rajaton dynaaminen
> alue. Fotonilaskureita vaan rasteriin ja tulokset ilmoitetaan bignumeina

Kyllä periaatteessa, jos sallitaan se, että rajaton dynamiikka
vaatii rajattomasti valoa. Käytännössä on siis sikäli hassusti,
että ainoa tapa parantaa dynamiikkaa (lineaarisen määritelmän
mukaan) on lisätä pikselin kapasiteettia. Jotta tästä olisi käytännön
hyötyä, pitää yleensä sitten tehdä optiikasta enemmän valoa keräävä,
ts. isompi. Dynamiikkaa kun ei valon kvanttiluonteen vuoksi voi
etsiä kuin yläpäästä.

> Alkuperäiseen kysymykseen voi siis aivan perustellusti vastata, että
> koska (ko. kameralla) ei vaan voi. =)

Kyllä. Eikä voi toistaakaan. Eikä toimi silmäkään. Elämä on. Mutta
eipä se sellainen kahdenkymmenen stopin dynamiikka yhdessä kuvassa
välttämättä kovin hääviltä näytä ruudulle tai paperille litistettynä.

Toni Nikkanen

unread,
Jun 7, 2006, 10:20:54 AM6/7/06
to
Markus Lehto <mal...@POISTAutu.fi> writes:

> Toni Nikkanen wrote:
>> Tai sitten voi ottaa ne kuvat värinegalla :)
> ...tai tyytyä vain katselemaan ;)


Oikeastaan tarkoitukseni olikin sanoa, että jos on tottunut
kuvailemaan värinegalle filmipokkarilla niin voi yllättyä, kun
digipokkarilla dynamiikka loppuukin paljon helpommin kesken
tuollaisissa tilanteissa.

TImo Autiokari

unread,
Jun 7, 2006, 10:40:11 AM6/7/06
to
Ville Voipio wrote:

> 1. lineaarinen määritelmä: Suuren signaalin
> päällä olevan pienen signaalin erottuvuus.

Miten tämä liittyy kameran dynaamiseen alueeseen? Kamerassa ei ole
suuria signnaaleita joiden päällä on pieniä signaaleita vaan X MP
kamerassa on X miljoonaa samanaikaista signaalia joiden kunkin päällä on
erityyppisiä kohinoita.

> Matemaattisessa käsittelyssä lineaarinen malli on kaikin puolin

> mukavin,mutta se ei mallinna silmää kovin hyvin.

Nimenomaan mallintaa silmää erinomaisen hyvin, siis kun tarkastellaan
kohdetta jonka valaistuksen voimakkuutta ei muuteta.

Ei mallinna näköaistin automaattista valotuksen korjausta (light
adaptation) ollenkaan hyvin mutta valokuvaukseen liittyen tämä on
merkityksetön asia, esim harvemmin valotamme kuvia siten että valotus
alkaa esim keskiyöllä ja päättyy keskipäivällä.

> 2. suurimman ja pienimmän signaalin suhde: Pientä erotettavaa
> signaalia verrataan suurimpaan erotettavaan signaaliin. Tällöin
> bittimäärällä ei ole mitään tekemistä dynamiikan kanssa, koska
> toistokäyrä on epälineaarinen.

Täysin riippumatta siitä minkälainen toistokäyrä sattuu olemaan
bittimäärällä ei koskaan ole merkitystä mitattavan dynamiikan kanssa
(kunhan niitä bittejä on vähintään 1 kpl). Yhdellä bitillä voi koodata
aivan minkä tahansa dynaamisen alueen matemaattisen tarkasti,
käytettävissä olevan kvantisaation puitteissa. Mutta bittimäärällä on
merkitystä kuvanlaadun suhteen, tuo yksi bitti tarjoaa varsin karheaa
kuvanlaatua.

>Hyvä puoli on se, että silmäkin toimii näin,
>ja pienellä bittimäärällä saa ison dynamiikan.

Silmä _ei_ toimi epälineaarisesti. Näköaistin automaattinen valotuksen
korjaus (light adaptation) toimii epälineaarisesti.

Esimerkiksi, tarkastelemme kohdetta jonka yläpuolella on jokin
valonlähde, esim 100W hehkulamppu, ja kohteessa on eritavoin heijastavia
pintoja. Tässä tilantessa näemme nuo eritavoin heijastava pinnat varsin
lineaarisesti (pois lukien paikallinen adaptaatio). Kun tuon
valonlähteen voimakkuus kasvatetaan 2:lla (siis yhden f/stopin verran,
200W:iin) ja sitten taas 2:lla eli 800W:iin, ja taas 2:lla 1600W:iin jne
niin nämä kirkastumistapahtumat koemme epälineaarisena. Ensimmäisen
tuplauksen jälkeen emme koe että valaistuksen voimakkuus kasvoi
kaksinkertaiseksi, toisen tuplauksen jälkeen emme edelleenkään koe että
valaistuksen voimakkuus taas kasvoi edellisestä tilanteesta
kaksinkertaiseksi, jne. Koemme nuo tuplaukset melko samanlaisina. Siis
komme 100W muutoksen 200W:iin suurinpiirtein samanlaisena muutoksena
kuin esim 800W muutoksen 1600W:iin. Mutta kaikissa näissä eri
valaistustilanteissa näemme kohtessa olevat heijastavat pinnat
suurinpiirten samoin, melko lineaarisesti.

> Maailmalla on CMOS-sensoreita, joiden dynamiikaksi annetaan 120 tai
> jopa 140 dB. Tämä on puoliksi huijausta, koska desibelit on
> laskettu väärin (intensiteetti on tehosuure, jolloin oikeat luvut
> olisivat 60 dB ja 70 dB). Mutta aika vaikuttavaa silti. Tuollaisella
> kameralla voi ottaa kuvan tunnelissa aurinkoista tunnelin suuta
> kohden ja nähdä sekä ulos että sisälle.

Ei voi _nähdä_. Jos sellainen kamera olisi olemassa jonka dynamiikka
olisi 60dB eli 1000000:1 eli 19.9 f/stoppia niin ko kamera kykenisi
kyllä tuon tilanteen kuvatulla tavalla _tallentamaan_. Jotta voitaisiin
sitten nähdä (ilman kuvanmuokkausta) se mitä kamera tallensi niin
tarvitaan varsin suurikokoinen monitori sopivalla etäisyydellä siten
että kuvaussuhde silmään on sama kuin mitä se luonnossa oli ja etenkin
monitorin on tuotettava sama maximi luminanssi kuin mitä kohteessa oli.

> Lineaarisessa kamerassa yksittäisen pikselin
> dynamiikan määrää pikselin maksimivaraus.

Ei, vaan se antaa teoreettisen maksimiarvon dynaamiselle alueelle jota
ei voi todellisuudessa saavuttaa koska sitä pienentää aika tavalla
kaikki ko sensorin ja digitoinnin tuottamat kohinat.

> Se taas riippuu nykytekniikalla
> lähinnä pikselin pinta-alasta.

Ei vaan toisinpäin. Pixelin pinta-ala määrittää maksimivarauksen, tämän
perusteella mitoitetaan se varauskonkan koko. Siis ei ole olemassa
mitään erityistä teknistä rajoitusta siten että pixelin pinta-ala
määräisi varasukonkan kapasitanssin.

Maksimivaraus määräytyy siitä että fotoneita on vain rajallinen määrää
saatavilla. Tietyn valaistuksen voimakkuuden, kuvaussuhteen, valotusajan
ja aukon vallitessa suurempi pixelin pinta-ala vastaanottaa fotoneita
enemmän kuin pienempi.

> Aika usein dynamiikka rajautuu myös siitä, että valoa ei ole
> tarpeeksi. Tuhannella fotonilla ei saada kovin hyvää dynamiikkaa,
> vaikka kuinka yrittäisi.

Vaikka valoa on kuinka paljon tahansa niin tuhannella fotonilla ei saa
hyvää kuvanlaatua. Siis hyvää kuvanlaatua saa vain kun pixelin
maximivaraus on suuri ja sitä ei saada suureksi muuta kuin pixelin kokoa
kasvattamalla (kun pitäydytään siinä että kamera toimii kuten niinkuin
niiden on totuttu toimivan).

Timo Autiokari

Sakari Hannula

unread,
Jun 7, 2006, 10:47:08 AM6/7/06
to
Timo wrote:
> No onhan se tietysti niinkin. Biteistä on kuitenkin tässä
> yhteydessä tavallaan turha höpistä, koska se ei ole se mikä oikeasti
> kameran suorituskykyä rajoittaa. Uskon että vähänkään järkevässä kamerassa
> on RAW-moodissa bittejä riittävästi kuvaamaan kennon varaukset sillä
> tarkkuudella ja lukualueella millä ne voidaan sieltä järkevästi lukea.

Mistä sitten johtuu se, että HDR [High Dynamic Range] kuvauksen
yhteydessä puhutaan vakaasti bittien riittämättömyydestä nykydigeissä ja
sitä kasvattamalla saataisiin paremmin taltioitua suurikontrastisia
kuvia ilman jomman kumman pään tukkoon menemistä? Ottamalla kolme
valotusta hankalasta maisemasta ja yhdistämällä ne yhdeksi 32-bittiseksi
HRD-kuvaksi, saadaan paremmin oikeaa, silmän näkemään tilannetta
vastaava kuva. Onko tässä siis kuitenkin kyse jostain muusta, kuin
bittimäärän kasvun tuomasta edusta?

Hyvät linkit aiheesta tervetulleita, koska mielelläni selvittelen asiaa
itsekin.

.s

Timo

unread,
Jun 7, 2006, 11:05:29 AM6/7/06
to
On 2006-06-07, Sakari Hannula <sak...@CRAP.FILTER.kolumbus.fi> wrote:
> Mistä sitten johtuu se, että HDR [High Dynamic Range] kuvauksen
> yhteydessä puhutaan vakaasti bittien riittämättömyydestä nykydigeissä ja
> sitä kasvattamalla saataisiin paremmin taltioitua suurikontrastisia
> kuvia ilman jomman kumman pään tukkoon menemistä? Ottamalla kolme
> valotusta hankalasta maisemasta ja yhdistämällä ne yhdeksi 32-bittiseksi
> HRD-kuvaksi, saadaan paremmin oikeaa, silmän näkemään tilannetta
> vastaava kuva. Onko tässä siis kuitenkin kyse jostain muusta, kuin
> bittimäärän kasvun tuomasta edusta?

Onhan tietenkin niin, että jos halutaan tallentaa kirkkausarvoja
laajemmalta alueelta, niin tarvitaan lisää bittejä. En jaksa kuitenkaan
uskoa, että kamerat olisivat muuten täysin kykeneviä mahtaviin
dynaamisiin alueisiin, mutta valmistajat ihan vaan piruuttaan jättävät
tallentamatta osan tiedosta.

Bittejä siis tarvittaisiin lisää, mutta että nuo bitit saataisiin
tallentamaan jotain järkevää, tarvitsisi myös kennoja kehittää
paremmiksi.

Nuo HDR kuvathan kasataan useammasta kuvasta, jotka on otettu *eri*
valotusajoilla. Tällöin valon määrä eri osissa kuvia on eri otoksissa
aina sillä välillä minkä kameran kenno pystyy tallentamaan.

--
Timo

Timo Autiokari

unread,
Jun 7, 2006, 12:05:31 PM6/7/06
to
Sakari Hannula wrote:

> Mistä sitten johtuu se, että HDR [High Dynamic Range] kuvauksen
> yhteydessä puhutaan vakaasti bittien riittämättömyydestä nykydigeissä

Siitä ettei tiedetä asiasta josta puhutaan. Nykydigeissä on bittejä (ADC
muuntimen bittejä jotka muuntava lineaaridataa) yleensä 12 kpl siis
varsin kelvollinen rekisteröimään 12 f/stoppia. Mutta niissä (parhaissa
dSRL kameroissa) on dynamista aluetta vain niukin naukin 9 f/stoppia.

> ja sitä kasvattamalla saataisiin paremmin taltioitua
> suurikontrastisia kuvia ilman jomman kumman pään tukkoon
> menemistä?

Ensin pitää kasvattaa sensorin dynaamista aluetta tuonne 12 f/stoppiin.
Sitten kun se siitä paranee niin tarvitaan lisää bittejäkin.

>Ottamalla kolme valotusta hankalasta maisemasta ja yhdistämällä ne
>yhdeksi 32-bittiseksi HRD-kuvaksi, saadaan paremmin oikeaa, silmän
>näkemään tilannetta vastaava kuva.

Kyllä, tähän käsittelyyn riittää tosin vallan mainiosti myös 16-bit/c moodi.

Tässä yhteydessä (siis valokuvaus) "silmä" näkee vain luokkaa 7 ... 9
f/stoppia kun tarkastellaan luonnollista kohdetta. Kun ko kohteen kuva
esitetään ruudulla niin vähemään (paikallisen adaptaation verran vähemmän).

Hyvin usein yhdestäkin kuvasta saadaan monitorille (tai tulosteeksi)
muokattua paremmin oikeaa, silmän näkemään tilannetta vastaava kuva.
Esimerkin vuoksi:

suoraan RAW muunnoksesta:
http://www.aim-dtp.net/aim/temp/CRW_3424.jpg

suoraan RAW muunnoksesta + muokkaus:
http://www.aim-dtp.net/aim/temp/CRW_3424-dm.jpg

RAW jos haluat itse kokeilla:
http://www.aim-dtp.net/aim/temp/CRW_3424.CRW

Lähinnä siis muokataan tummaa päätä siten että kompensoidaan näköaistin
paikallista adaptaatiota joka luonnollisessa tilanteessa tapahtuu mutta
ei voi tapahtua kun katsotaan kohteen valokuvaa ruudulta. Ja tähän
normaalisti riittää tuo yhden kuvan niukin naukin 9 f/stopin dynamiikka.

Timo Autiokari

Mikko Tapani Reinikainen

unread,
Jun 8, 2006, 12:39:14 AM6/8/06
to
In article <fPChg.1190$kL7...@reader1.news.jippii.net>,

Timo Autiokari <timo.au...@aim-dtp.net> wrote:
>Hyvin usein yhdestäkin kuvasta saadaan monitorille (tai tulosteeksi)
>muokattua paremmin oikeaa, silmän näkemään tilannetta vastaava kuva.
>Esimerkin vuoksi:

Haet ilmeisesti paremmin oikealla kuvalla sellaista, jossa näkyvät ne
yksityiskohdat, jotka silmä erottaa kohteesta luonnossa?

Minusta käsittelemäsi versio näyttää oudolta, koska tumman pään nosto
tuo kuvaan negatiiviefektin, jossa alun perin tummemmat sävyt
muuttuvat paljon vaaleammiksi kuin alun perin vaaleammat. Tuskin silmä
ihan noin paljon adaptoituu, että vierekkäin olevien tumman ja vaalean
alueen suhteelliset kirkkaudet vaihtavat paikkaa.

- Mikko Reinikainen

Mikko Tapani Reinikainen

unread,
Jun 8, 2006, 12:59:11 AM6/8/06
to
In article <gzBhg.1124$aG6...@reader1.news.jippii.net>,

TImo Autiokari <timo.au...@aim-dtp.net> wrote:
>Täysin riippumatta siitä minkälainen toistokäyrä sattuu olemaan
>bittimäärällä ei koskaan ole merkitystä mitattavan dynamiikan kanssa
>(kunhan niitä bittejä on vähintään 1 kpl). Yhdellä bitillä voi koodata
>aivan minkä tahansa dynaamisen alueen matemaattisen tarkasti,

Jos ihan tarkkoja ollaan, niin yhdellä bitillä ei voi esittää kuin
sen, onko kuvapisteen kirkkaus yli vai alle tietyn sovitun
kirkkausarvon, eli dynaaminen alue on äärettömän pieni:

0 = alle x yksikköä valoa
1 = vähintään x yksikköä valoa

Kolmella kirkkausarvolla voidaan esittää jo mielivaltaisen suuri
dynaaminen alue:

0 = alle x yksikköä valoa
1 = vähintään x ja alle y yksikköä valoa
2 = vähintään y yksikköä valoa

missä x:n ja y:n välillä voi olla vaikka sata stoppia eroa, jos ei
rajoituta siihen, että kirkkausarvojen täytyisi kasvaa lineaarisesti.

- Mikko Reinikainen

timo.au...@aim-dtp.net

unread,
Jun 8, 2006, 2:22:32 AM6/8/06
to
Mikko Tapani Reinikainen wrote:

> Haet ilmeisesti paremmin oikealla kuvalla sellaista, jossa näkyvät ne
> yksityiskohdat, jotka silmä erottaa kohteesta luonnossa?

Kyllä. Hyvin usein kohde on sellainen että näköaisti tekee
paikallista adaptaatiota joten väriteknisesti tarkasti toistuva
valokuva (ruutukuva tai tuloste) esittää tumman pään aivan liian
tummana sillä valokuvaa (ruutukuva tai tuloste) katsottaessa
näköaistin paikallista adaptaatiota ei juurikaan pääse tapahtumaan.
Toisinaan tähän säätöön riittää pelkkä Curves, toisinaan on
tehtävä paljon enemmän.

> Minusta käsittelemäsi versio näyttää oudolta, koska tumman pään nosto
> tuo kuvaan negatiiviefektin, jossa alun perin tummemmat sävyt
> muuttuvat paljon vaaleammiksi kuin alun perin vaaleammat. Tuskin silmä
> ihan noin paljon adaptoituu, että vierekkäin olevien tumman ja vaalean
> alueen suhteelliset kirkkaudet vaihtavat paikkaa.

Aivan, noin rankkaa paikallista adaptaatiota ei normaalisti tapahdu,
tuo esimerkki on melkoisen yliampuva siksi että:

1) varmasti käy ilmi että säätövaraa on olemassa vaikka
käytössä on kamera (D60) jolla dynaamista aluetta on ainoastaan
karvan verran alle 9 f/stoppia.

2) jätin kiusaksi vihjeitä siitä mitä on tehty, en pehmentänyt
efektiä lainkaan.

Eli eli, normaalin valokuvauksen kannalta: Kun kuva esittää kohteesta
about 9 f/stoppia about sillä tavalla kuin näköaisti kohteen koki
niin kuva on tältä osin (toistoltaan, tonaalisesti) varsin
erinomainen. Sillä itse näköaisti ei kykene rekisteröimään kuin
enintään 9 f/stoppia kun se sitä kohdetta suoraan tarkastelee.

Ns HDR ei tuo tähän (normaalin valokuvauksen kannalta) mitään
lisää, HDR tekniikat voivat kyllä luoda jonkinlaisen (erittäin
luonnottomalta näyttävän) esityksen jossa esim erottuu aurinko
pilkuineen sekä sen valaisema maisema, tai voi esittää kuvan
huoneesta jossa samalla erottuu selvästi huonetta valaisevan
hehkulampun filamentin kierukka, mutta näillä ei ole mitään
käyttöä normaalissa valokuvauksessa. Ne ovat ääterrömän
epäluonnollisen näköisiä kuvia. Teknisesssä kuvannuksessa HDR sen
sijaan on vallan erinomainen, suuresti käyttökelpoinen apuneuvo (esim
x-ray ja pyyhkäisyelektronimikroskooppi -kuvannukset).

Timo Autiokari

goo...@lycos.com

unread,
Jun 8, 2006, 4:50:06 AM6/8/06
to
timo.au...@aim-dtp.net wrote:

> Ns HDR ei tuo tähän (normaalin valokuvauksen kannalta) mitään
> lisää, HDR tekniikat voivat kyllä luoda jonkinlaisen (erittäin
> luonnottomalta näyttävän) esityksen jossa esim erottuu aurinko
> pilkuineen sekä sen valaisema maisema, tai voi esittää kuvan
> huoneesta jossa samalla erottuu selvästi huonetta valaisevan
> hehkulampun filamentin kierukka, mutta näillä ei ole mitään
> käyttöä normaalissa valokuvauksessa. Ne ovat ääterrömän
> epäluonnollisen näköisiä kuvia. Teknisesssä kuvannuksessa HDR sen
> sijaan on vallan erinomainen, suuresti käyttökelpoinen apuneuvo (esim
> x-ray ja pyyhkäisyelektronimikroskooppi -kuvannukset).
>
> Timo Autiokari

Kirjainyhdistelmä HDR ei ole minulle tuttu, mutta olen kuitenkin
joskus yhdistellyt kuvia tuon menetelmän mukaisella tavalla - koska
tuollainen ajatus tulee mieleen melkein automaattisesti, kun tietää,
että kirkkassa päivänvalossa otetussa kuvassa palavat valkoiset
kohdat usein puhki ja tumma on pelkkää mustaa.

http://www.kanzelsberger.com/img/rgb.png

Ei luulisi olevan teknisesti mahdotonta (hinta on toinen asia) tehdä
kameraan tuollainen ominaisuus. Kamerassa olisi kolme kennoa, joihin
kuva monistettaisiin eri valotustasoilla jollakin peili- tai
prismajärjestelmällä. Kuvat yhdistettäisiin ja lopputuloksena olisi
kuva, jossa on sävyjä niin vaaleilla kuin tummillakin alueilla.
Kuinka luonnoton tuollainen kuva olisi, se on tietysti makuasia.
Keinotekoisesti tuotettu kuvahan on aina luonnoton eikä se vastaa
sitä, mitä silmä näkee.

paul...@yahoo.com

unread,
Jun 8, 2006, 12:27:58 PM6/8/06
to
TImo Autiokari kirjoitti:

>
> _Täsmälleen_ samalla tavalla adaptoituu myös kamera, sen aukko ja aika
> säädöt vastaavat täsmälleen tuota näköaistin valo-adaptatiota. (Jos ne
> eivät riitä niin sitten vaan densiteettifiltteriä objektiivin eteen).
> Kameralla saadan kuva kuva kummassakin yllä olevassa olosuhteessa, siis
> (jotakin) kuvainformaatiota tallentuu.

No ei todellakaan. Ainoastaan aukon säätö on jokseenkin
samanlainen. Valotusajan säätöä ei silmässä ole (ellei
silmien räpyttelyä kirkkaassa valossa sellaiseksi lasketa).
Kolmas säätö kamerassa on ns. ISO-herkkyyden säätö, joka
kuitenkin säätää vain vahvistimen vahvistusta eikä siten tuo
lisää dynamiikkaa.

Ihmisen silmän näkösolut sen sijaan pystyvät adaptoitumaan
jokainen erikseen. Kukin solu pystyy muutamassa sekunnissa
kasvattamaan pinnalleen pigmenttikerroksen, joka himmentää
valoa. Näin verkkokalvon herkkyys on tarpeen mukaan
erilainen eri kohdissa. Sen lisäksi verkkokalvo on älykäs
järjestelmä, jonka solut kommunikoivat keskenään ja
prosessoivat kuvaa varsin paljon ennen kuin se lähetetään
eteenpäin aivoille.

>
> ... Eli, emme alkuunkaan erota tuollaista 10000000000:1 dynamikkaa
> _yhtäaikaisesti_ mistään kohteesta. Mikäli kykenisimme sen erottamaan
> niin meillä ei olisi nykyisen kaltaisia (filmi sekä digi) kameroita
> lainkaan sillä niitä pidettäisiin aivan totaalisen kelvottomina. Mutta
> me erotamme vain tuon 7 ... 9 stoppia yhtäaikaisesti joten nykykameroita
> pidetään juuri ja juuri kelvollisina (sillä ne omaavat niin ikään about
> 7 ... 9 stoppia hetkellistä dynamiikkaa, siis kun aukko ja aika pidetään
> muuttumattomana).

Mistä sinä tuon 7...9 stoppia silmälle keksit? Kyllähän silmän
dynamiikka-alue on *paljon* laajempi kuin kameran.

Jokainen digikuvaaja voi sen itsekin todeta. Kun katsoo
maisemaa, niin sekä pilvet taivaalla että varjossa olevan
ladon seinän yksityiskohdat ovat näkyvissä samanaikaisesti.
Siis silmää kääntelemättä.
Kun sitten näpsäyttää kuvan, niin taivas on puhki palanut
vaikka ladon seinä olisi lähes musta.

>
> Ei tule, jopa 8-bit/kanava muodossa sadRGB:n toistokäyrä koodaa paljon
> enemmän kuin mitä näköaistin hetkellinen dynaaminen alue on.

Mikähän on tämä sinun oma sadRGB toistokäyräsi,
jota sinä aina markkinoit?

Ei, sRGB ei todellakaan koodaa "paljon enemmän"
kuin silmän dynaaminen alue, mutta kuitenkin
jotakuinkin riittävästi.

> AdobeRGB:n gamma 2.2 toistokäyrä koodaa rajusti enemmän.

Höpön löpön. Adoben viritys käyttää samaa 2.2 gamma-arvoa
kuin standardi sRGB, joten niillä on täsmälleen sama dynamiikka.

Se, missä Adoben viritys eroaa standardista on, että
adobella on laajempi sävyalue. Eli ennen kuvan
tallettamista on värikylläisyyttä pienennetty, ja
kuvaa näytettäessä se sitten kasvatetaan normaaliksi.

Laajemmasta sävyalueesta ei kuitenkaan ole mitään hyötyä,
koska mikään reaalimaailmaa esittävä kuva ei käytännössä
sisällä värejä, jotka eivät mahtusisi sRGB:n sävyalaan,
eikä sellaisia sävyjä varsinkaan voida printata.
Mutta kun laajempi sävyalue esitetään samalla bittimäärällä,
niin sävyresoluutio huononee. Jos siis esim. kamerassa on
mahdollisuus käyttää AdobeRGB:tä, niin sitä ei kannata käyttää.

--
Pauli

paul...@yahoo.com

unread,
Jun 8, 2006, 12:46:07 PM6/8/06
to
Ville Voipio kirjoitti:

>
> Maailmalla on CMOS-sensoreita, joiden dynamiikaksi annetaan 120 tai
> jopa 140 dB. Tämä on puoliksi huijausta, koska desibelit on
> laskettu väärin (intensiteetti on tehosuure, jolloin oikeat luvut
> olisivat 60 dB ja 70 dB). Mutta aika vaikuttavaa silti. Tuollaisella
> kameralla voi ottaa kuvan tunnelissa aurinkoista tunnelin suuta
> kohden ja nähdä sekä ulos että sisälle. Tai ottaa pimeällä kuvan
> vastaantulevasta autosta ja saada rekisterikilven selvästi esiin
> ylivalottamatta ajovaloja. Dynamiikkaa on siis 1:1 000 000 tai
> enemmän. Selvästi silmää parempi suoritus.

Missäs tuollaisia CMOS-sensoreita myydään?
Kaikissa minun näkemissäni lähteissä on sanottu, että
CMOS- tai CCD-kennon maksimi dynamiikka on n. 3.0D
eli 30 dB. Jollain nestetypellä jäädytetyllä kennolla voidaan
päästä jopa 40 dB dynamiikkaan.

Ehkä sekoitat toisiinsa kennon ja kameran dynamiikan.
HDR-kameroissa ja skannereissa laaja dynamiikka saavutetaan
joko ottamalla useita kuvia peräkkän eri valotusarvoilla tai
käyttämällä useampia kennoja, jotka kuvaavat eri valotusarvoilla.

Hieman normaalia parempi dynamiikka toki saadaan myös
sijoittamalla samaan kennoon herkempiä ja epäherkempiä
pikseleitä, mutta tämä tapahtuu resoluution ja herkkyyden
kustannuksella.

--
Pauli

Jari Suomela

unread,
Jun 8, 2006, 12:49:41 PM6/8/06
to
paul...@yahoo.com wrote:

> Kukin solu pystyy muutamassa sekunnissa
> kasvattamaan pinnalleen pigmenttikerroksen, joka himmentää
> valoa.

No, ei kai nyt sentään :D

paul...@yahoo.com

unread,
Jun 8, 2006, 1:32:46 PM6/8/06
to
timo.au...@aim-dtp.net kirjoitti:

>
> Ns HDR ei tuo tähän (normaalin valokuvauksen kannalta) mitään
> lisää, HDR tekniikat voivat kyllä luoda jonkinlaisen (erittäin
> luonnottomalta näyttävän) esityksen jossa esim erottuu aurinko
> pilkuineen sekä sen valaisema maisema, tai voi esittää kuvan
> huoneesta jossa samalla erottuu selvästi huonetta valaisevan
> hehkulampun filamentin kierukka, mutta näillä ei ole mitään
> käyttöä normaalissa valokuvauksessa. Ne ovat ääterrömän
> epäluonnollisen näköisiä kuvia. Teknisesssä kuvannuksessa HDR sen
> sijaan on vallan erinomainen, suuresti käyttökelpoinen apuneuvo (esim
> x-ray ja pyyhkäisyelektronimikroskooppi -kuvannukset).

Jos normaalilla valokuvauksella tarkoitat sitä, että kuva
näpätään ja sitten tulostetaan kymppikuvaksi, niin ei
siinä HDR-kamerasta tosiaan olisi iloa. Varsinkin kun
paperikuvan dynamiikka-alue on parhaimmillaankin vain
luokkaa 6 f/stoppia.

Mutta jos kuvaa aiotaan käsitellä, niin silloin laajempaa
dynamiikkaa tarvitaan. Luonnollisesti sitä tarvitaan, jos
kuvaa joudutaan tummentamaan tai vaalentamaan.
Mutta monet muutkin operaatiot, kuten filtterit, motion blur
yms. toimivat oikein vain, jos käytettävissä on laajempi
dynamiikka-alue, kts. esim.
http://gl.ict.usc.edu/HDRShop/

Ja aivan normaalisti kuvaa monitorilla katsoessakin olisi
hyvä, jos kuvaa voisi säätää tummemmaksi ja vaaleammaksi
reaaliajassa ja saada näin näkyviin yksityiskohtia sekä
varjo- että valokohdista.

Tai sitten voi kuvaa katsella HDR-näytöstä:
http://www.brightsidetech.com/

Kaikkein yleisin HDR-kuvien käyttötarkoitus nykyisin vielä
lienee kuitenkin 3D-ohjelmissa käytettävä kuvapohjainen
valaistus. Tällaista käyttötarkoitusta varten lienee tehty
esim. Spherocam HDR:
http://www.grafixgear.com/HTML/spheron.htm

--
Pauli

Timo Autiokari

unread,
Jun 8, 2006, 2:08:44 PM6/8/06
to
paul...@yahoo.com wrote:

> No ei todellakaan.

Sinulla on (muun muassa) varsin erikoinen kyky käsittää asiat yleensä
täysin ylösalasin siihen verrattuna miten ne on kirjoitettu.

>Ainoastaan aukon säätö on jokseenkin samanlainen.
>Valotusajan säätöä ei silmässä ole

Näköaistin valo-adaptaatio on erittäin samankaltainen adaptaatio kuin
mitä kamerassa tapahtuu kun säädetaan aikaa, tai aukkoa tai kumpaakin.
Siis näkemisen/valotuksen kannalta tietenkin.

> Ihmisen silmän näkösolut sen sijaan pystyvät
> adaptoitumaan jokainen erikseen.

Eivät pysty. Jos pystyisivät niin emme näkisi juurikaan mitään detaljeja
(siis esineiden, kappaleiden, jne rajoja) kun ne adaptoituisivat pois.

Paikalliseen adaptaatioon tarvitaan noin 10 asteen näkymä ja silloin
efekti on varsin heikko, efekti kasvaa kun kulma kasvaa.

> Kukin solu pystyy muutamassa sekunnissa kasvattamaan pinnalleen
> pigmenttikerroksen, joka himmentää valoa.

Ei todellakaan kukin solu autonomisesti.

>Näin verkkokalvon herkkyys on tarpeen mukaan erilainen eri kohdissa.

Näin on, siis eri kohdissa mutta ei solukohtaisesti vaan tarvitaan
suurehko alue.

> Mistä sinä tuon 7...9 stoppia silmälle keksit?

Esim täällä sanotaan että noin 1000:1 eli 10 stoppia mutta se on kyllä
vähän yläkanttiin (intrascene dynamic range):
http://faculty-web.at.northwestern.edu/med/fukui/Human%20eye.pdf

Täällä puolestaan sanotaan että se olisi alle 200:1 eli 7,6 stoppia
(instantaneous dynamic range):
http://www.4colorvision.com/files/perceivedlumin.htm

jne, taikasanat ovat "intrascene" ja "instantaneous" käytä Googlea.

Tuolle hetkelliselle dynaamiselle alueelle ei ole tarkkaa määritystä kun
se todellakin riippuu kohteen kuvainformaatiosta mutta 7 ... 9 stoppia
on hyvin oikealla hehtaarilla.

>Kyllähän silmän dynamiikka-alue on *paljon* laajempi kuin kameran.

Interscene dynamic range on luokkaa 10000000000:1 tai enemmänkin, mutta
kuten jo kirjoitin niin se edellyttää/tarkoittaa sitä että tapahtuu
valo-adaptaatiota siten että erittäin heikosti valaistu tilanne muuttuu
erittäin kirkkaasti valaistuksi tilanteeksi (pimeä yö vaihtuu keskikesän
keskipäiväksi). Ja näin ei tilanne ole kun tarkastelemme mitä tahansa
kohdetta josta aiomme ottaa valokuvan, vaan valo-adaptaatio on siinä
tilanteessa muuttumaton, siis kohteen valaistuksen voimakkuus on
muuttumaton. Silloin näemme vain tuon 7 ... 9 stoppia.

> Höpön löpön. Adoben viritys käyttää samaa 2.2 gamma-arvoa
> kuin standardi sRGB, joten niillä on täsmälleen sama dynamiikka.

Olet autuaan väärässä tässäkin. sadRGB:llä on niin sanottu
slope-limiting ominaisuus siirtokäyrän tummassa päässä, sillä on suuri
ero gamma 2.2:een joka on esim AdobeRGB:n siirtokäyrä. Opiskele täältä:
http://www.w3.org/Graphics/Color/sRGB

Alkeet opiskeltuasi voit sitten laskea mitä RGB taso 1 tarkoittaa eri
väriavaruuksissa:

sadRGB koodaa 3294,6:1 dynaamisen alueen.
AdobeRGB koodaa 196964,7:1 dynaamisen alueen.

Tuo sadRGB:n slope limiting muuten aiheuttaa sen että sadRGB ICC
profiileissa siirtokäyrä on pakko määritellä look-up-tauluna, joka on
joko 10 bittinen tai 12-bittinen. Tavallisissa työtilaprofiileissa
siirtokäyrä on matemaattinen gamma funktio eli se lasketaan käytännössä
vähintään 31 bittisenä. Look-up-taulusta seuraa tietynkaltaisia ongelmia
kuvanlaatuun.

> Se, missä Adoben viritys eroaa standardista on, että
> adobella on laajempi sävyalue. Eli ennen kuvan
> tallettamista on värikylläisyyttä pienennetty, ja
> kuvaa näytettäessä se sitten kasvatetaan normaaliksi.

Täysin väärin. Työtilaprofiilit eivät aiheuta sitä että "ennen kuvan
tallettamista värikylläisyyttä pienennetään".

> Laajemmasta sävyalueesta ei kuitenkaan ole mitään hyötyä,
> koska mikään reaalimaailmaa esittävä kuva ei käytännössä
> sisällä värejä, jotka eivät mahtusisi sRGB:n sävyalaan,

Täysin väärin tämäkin. Esim monien liikeyritysten logon värit eivät
mahdu sadRGB väriavaruuteen. Monet automaalit samoin.

> eikä sellaisia sävyjä varsinkaan voida printata.

Esim online kuvatulostimet omaavat yleensä varsin merkittävässä määrin
värisävyjä jotka ovat sadRG:n ulkopuolella. Tämän voi helposti tutkia ko
tulostimien ICC profiileista. IFIpro:n gamut oli about adobeRGB:n laajuinen.

> Mutta kun laajempi sävyalue esitetään samalla bittimäärällä,
> niin sävyresoluutio huononee. Jos siis esim. kamerassa on
> mahdollisuus käyttää AdobeRGB:tä, niin sitä ei kannata käyttää.

Tämäkin on täysin väärin. Aina käyttää laajinta gamuttia joka on tarjolla.

Timo Autiokari

Toni Nikkanen

unread,
Jun 8, 2006, 3:26:15 PM6/8/06
to
Timo Autiokari <timo.au...@aim-dtp.net> writes:

> Näköaistin valo-adaptaatio on erittäin samankaltainen adaptaatio kuin
> mitä kamerassa tapahtuu kun säädetaan aikaa, tai aukkoa tai
> kumpaakin. Siis näkemisen/valotuksen kannalta tietenkin.

Tässä nyt taas ei oteta huomioon lainkaan sitä, miten ihminen katsoo.

Kun tulen niitylle, jossa näen toisessa päässä ladon jossa on syvät
varjot ja jonka takana paistaa aurinko, niin en todellakaan katso koko
maisemaa "yhtä aikaa". Katseeni kiinnittyy vuorollaan latoon,
niittyyn, ladon varjoihin, kirkkaaseen taivaaseen.. joka välissä
silmäni adaptoituu uudestaan.

Kun taas otan kameralla kuvan jossa on koko maisema yhdessä kuvassa,
kamera adaptoituu vain kerran. On löydettävä jokin kompromissi johon
mahtuu niin niitty, lato, varjot kuin taivaskin.

Timo Autiokari

unread,
Jun 8, 2006, 4:23:48 PM6/8/06
to
Toni Nikkanen wrote:

> Tässä nyt taas ei oteta huomioon lainkaan sitä, miten ihminen katsoo.

Ei, vaan sinä et ole ottanut huomioon kaikkea sitä mitä kirjoitin.

> Kun tulen niitylle, jossa näen toisessa päässä ladon jossa on syvät
> varjot ja jonka takana paistaa aurinko, niin en todellakaan katso koko
> maisemaa "yhtä aikaa". Katseeni kiinnittyy vuorollaan latoon,
> niittyyn, ladon varjoihin, kirkkaaseen taivaaseen.. joka välissä
> silmäni adaptoituu uudestaan.
>
> Kun taas otan kameralla kuvan jossa on koko maisema yhdessä kuvassa,
> kamera adaptoituu vain kerran. On löydettävä jokin kompromissi johon
> mahtuu niin niitty, lato, varjot kuin taivaskin.

Olen kyllä yrittänyt pitää erillään valo-adaptaation sekä (sitä
paikallisesti/alueellisesti moduloivan) paikallisen adaptaation.

Sitä koko sinun maisemaa valaisee aurinko joten näköaistin
valo-adaptaatio on (keskimäärin) tietyllä vakiotasolla. Mutta tuo
paikallinen (vai pitäisikö sanoa alueellinen, siis local) adaptaatio
joka pääasiassa johtuu mainitsemastasi (tiedostetusta tai
tiedostamattomasta) katseen kiinnittymisestä eri alueisiin sitten hieman
moduloi keskimääräistä valo-adaptaatiota, aluekohtaisesti, lähinnä siten
että erotamme kohteen tummista aluesta paremmin detaljia. Alueellisen
adaptaation vaikutus ei käytännössä ole koskaan järin suuri mutta toki
varsin riittävä niin että sen valokuvauksen kanssa puuhastellessa
toisinaan huomaa, tyypillisesti luokkaa 1 ... 2 stoppia. No, huonetila
kun näkökentässä on ikkuna ja aurinko paistaa on tuota jonin verran
rankempi adaptaatiotilanne. Mutta varsin usein kuvauskohteet ovat
kuitenkin sellaisia ettei mitään kompensaatiota tarvita (tähän saattaa
vaikuttaa se että niitä kaikkein vaikeimpia valaistustilanteita pyritään
välttämään tai lieventämään jo aivan alitajuntaisesti).

Timo Autiokari

Ville Voipio

unread,
Jun 8, 2006, 4:39:18 PM6/8/06
to
In article <1149785167.8...@f6g2000cwb.googlegroups.com>,
paul...@yahoo.com wrote:

> Missäs tuollaisia CMOS-sensoreita myydään?
> Kaikissa minun näkemissäni lähteissä on sanottu, että
> CMOS- tai CCD-kennon maksimi dynamiikka on n. 3.0D
> eli 30 dB. Jollain nestetypellä jäädytetyllä kennolla voidaan
> päästä jopa 40 dB dynamiikkaan.

Kyllä, jos puhutaan taas tästä lineaarisesta dynamiikasta. Mutta
jos puhutaan dynamiikasta siinä toisessa merkityksessä, niin
onhan noita ison skaalan kennoja ollut jo pitkään myynnissä.

IMECin Fuga-sarjan kennoja ja niillä tehtyjä kameroita mainostettiin
jo joskus, kun muutenkin ensimmäiset järkevät CMOS-kennot tulivat
markkinoille (ehkä noin vuonna 1998). Nykyään kova sana voisi olla
sveitsiläisten PhotonFocus (http://www.photonfocus.com/).

Jos näiden olemassaolo epäilyttää, voit käydä kaupassa ostamassa
itsellesi yhden pikselin. Sen nimi on fotodiodi. Jos sitä käyttää
fotovoltaisessa tilassa (= avoimessa piirissä), siitä lähtee
tuollainen seitsemän dekadia aika helposti. Avoimen fotodiodin
napajännite on varsin nätisti suhteessa valaistuksen logaritmiin.

Miinuspuolena tässä on se, että fotovoltaisesti toteutettu
sensori on epäherkkä. Toimiakseen se vaatii kohtuullisen jatkuvan
fotonivuon. Niinpä esimerkiksi tuo PhotonFocuksen sensori on
tehty sillä tavalla, että siinä päästetään isommilla varauksilla
osa varauksesta karkuun, jolloin pikseli täyttyy hitaammin. Tässäkin
on se heikkous, että sensorin täyttösuhde jää jonnekin kolmanneksen
nurkille. Tämä kääntyy aivan suoraan herkkyyshaitaksi.

Monivalottavat systeemit ovat sitten asia erikseen. CMOS-tekniikalla
valotuksia voi tehdä osin samanaikaisesti, koska pikseliä ei ole
pakko tyhjentää lukiessa. CCD:llä täytyy aina ottaa monta otosta.

Harri Suomalainen

unread,
Jun 9, 2006, 1:52:10 PM6/9/06
to
paul...@yahoo.com wrote:
> Laajemmasta sävyalueesta ei kuitenkaan ole mitään hyötyä,
> koska mikään reaalimaailmaa esittävä kuva ei käytännössä
> sisällä värejä, jotka eivät mahtusisi sRGB:n sävyalaan,
> eikä sellaisia sävyjä varsinkaan voida printata.

Hmm.. Itse en muista koskaan saaneeni sRGB-avaruuteen mahtumaan vaikkapa
ns. neon-sävyjä.. "Neon-oranssi" taitaa olla yksi klassisia esimerkkejä
väreistä joka ei mahdu ei sRGB eikä edes LAB-väriavaruuteen. Sävyt
tuosta ovat mitä kummallisempia kun värikonversiota tehdään.

Neon-oranssia toistavaa printteriä ei toki ole tullut vastaan. Monta
muuta sRGB-avaruuden ulkopuolista sävyä kyllä on tullut printattua ihan
tavallisistakin kohteista, niin sinisissä, vihreissä kuin punaisissa.

Tietysti jos katselee kuvia sRGB-näytöllä ei mitään eroa tunnu olevan,
koska näyttö on se väriavaruutta rajoittava, riippumatta arkistoformaatista.
--
Harri

Timo Autiokari

unread,
Jun 10, 2006, 9:25:37 AM6/10/06
to
Ville Voipio wrote:

> jos puhutaan taas tästä lineaarisesta dynamiikasta.

Ei ole mitään "lineaarista dynamiikka" ja sitten jotakin muuta esim
"epälineaarista"(?) tms dynamiikkaa.

Kameroille (yms mittalaitteille) on dynaaminen alue, se on varsin
yksiselitteinen, siis millaisen dynaamisen alueen laite kykenee
tallentamaan.

Kameroille/kuvasensoreille dynaamisen alueen mittaus/arviointi
-menetelmiä tosin on muutamia, esim valmistajat haluavat ilmoittaa sen
muodossa maximisignaali/read_noise (kummatkin käsitellän elektroneina)
ja saavat näin, markkinamiehiä varten, todellisuutta rajusti parempia
arvoja kun jättävät photon shot kohinan täysin huomiotta. Se on vähän
samanlaista markkinointia kuin skannereiden kanssa, (lähes kaikki)
valmistajat ilmoittavat dynaamiseksi alueeksi pelkän A/D muuntimen
dynamiikan jättäen sensorin ominaisuudet täysin huomiotta.

Kameran dynaamista aluetta voi joko mitata tai sitä voi epäsuorasti
arvioida. Yksi epäsuora menetelmä on valottaa jokin erittäin tasainen
pinta (esim paperi läheltä mutta tarkennus äärettömässä) niin että se
mappautuu lähelle maximia (siis 255:ttä 8-bit notaatiossa) mutta hieman
alle maksimin niin ettei kohina leikkaudu. Kun tästä kuvasta otetaan
lineaarimuunnos ja sitten lasketaan esim 100x100 pixelin alueelta
Signaalin_Keskiarvo/Signaalin_Standardideviaatio niin se antaa
eräänlaisen arvion kameran dynaamisella alueelle (Photoshopin Histogram
työkalu antaa kummatkin nuo arvot, niillä ei kuvankäsittelyä varten
juurikaan muuta käyttöä olekaan ...eli tässä siis selitys sille miksi ne
siellä Histogram työkalussa ovat tarjolla). Tuo arvio perustuu siihen
että kaikki kohina (tuossa max signaalitilanteessa) oletetaan photon
shot kohinaksi (joka on varsin järkevä oletus sillä tuossa tilanteessa
muut kohinat ovat lähes häviävän pieni osa kaikesta kohinasta), eli
kameralla ei todellisuudessa ole koskaan mahdollisuutta yltää tuohon
dynamikkaan. Mutta tuo arvio on siinä mielessä hyvä että voidaan sanoa
ainakin että dynamiikka on _enintään_ tämä. Tätä menetelmää ei
kuitenkaan voi käyttää mikäli kamera tekee "kehittyneempää" kohinan
suodatusta.

Paljon tarkempi keino on mitata dynamiikka suoraan käyttämällä
jonkinlaista standaria, minulla on käytössä Stouffer T4110C, se on
filmille valmistettu steppikiila jossa on 41 kpl 0.1D steppiä eli tuo
standari omaa about 13 f/stopin dynaamisen alueen. Tämän menetelmän
kanssa tosin tulee usein tulkintaerimielisyyksiä sillä tuloksia on
helposti mahdollista ymmärtää/käsitellä väärin.

Mutta kaikki dynaamisen alueen mittaus/arviointi -menetelmät kyllä
pyrkivät selvittämään yhtä ja samaa asiaa, siis sitä millaisen
dynaamisen alueen laite kykenee tallentamaan/mittaamaa/rekisteröimään.

Timo Autiokari

Seppo Loisa

unread,
Jun 11, 2006, 11:07:58 AM6/11/06
to
Harri Suomalainen <harri.su...@nospam.iki.fi> kirjoitti:

>Neon-oranssia toistavaa printteriä ei toki ole tullut vastaan.

Eikös nämä ns. neon-värit ole oikeasti fluoresoivia eli pinta säteilee
enemmän valoa kuin mitä siihen osuu.
--
Ylös vastaajia ei tueta.

juice

unread,
Jun 12, 2006, 1:34:26 AM6/12/06
to
In article <u72g2000cwu.googlegroups.com>, pauli0212 says...

>
>Jokainen digikuvaaja voi sen itsekin todeta. Kun katsoo
>maisemaa, niin sek=E4 pilvet taivaalla ett=E4 varjossa olevan
>ladon sein=E4n yksityiskohdat ovat n=E4kyviss=E4 samanaikaisesti.
>Siis silm=E4=E4 k=E4=E4ntelem=E4tt=E4.
>Kun sitten n=E4ps=E4ytt=E4=E4 kuvan, niin taivas on puhki palanut
>vaikka ladon sein=E4 olisi l=E4hes musta.
>

Tälle ilmiölle on itseasiassa varsin yksinkertainen selitys, ja se on
tämä: Ihminen ei näe silmillään vaan aivoillaan.

Silmä vastaa kohtuullilsen pitkäpolttovälistä teleobjektiivia, ja kuva
muodostuu aivoihin siten että silmä skannaa liikkuessaan kuva-alaa ja
'näkemäsi' kokonaiskuva on aivojen muodostama komposiitti skannatusta
tilasta. Skannauksen aikana iiris muuttaa kokoaan valaistuksen mukaan
aivan kuten kameran himmennin ja tasaa siten valotuksen verkkokalvon
toiminta-alueelle.

- Juice -

timo.au...@aim-dtp.net

unread,
Jun 12, 2006, 2:30:51 AM6/12/06
to
juice wrote:

> Tälle ilmiölle on itseasiassa varsin yksinkertainen selitys, ja se on
> tämä: Ihminen ei näe silmillään vaan aivoillaan.
>
> Silmä vastaa kohtuullilsen pitkäpolttovälistä teleobjektiivia, ja kuva
> muodostuu aivoihin siten että silmä skannaa liikkuessaan kuva-alaa ja
> 'näkemäsi' kokonaiskuva on aivojen muodostama komposiitti skannatusta
> tilasta. Skannauksen aikana iiris muuttaa kokoaan valaistuksen mukaan
> aivan kuten kameran himmennin ja tasaa siten valotuksen verkkokalvon
> toiminta-alueelle.

Nimenomaan näin. On kuitenkin huomattava ettei näköaistin täysi
valo-adaptaatiokyky milloinkaan ole kokonaisuudessaan
käytettäväissä kun tarkastellaan kohdetta jonka valaistuksen
voimakkuus ei muutu.

Koko valo-adaptaatiokyky (luokkaa 19 tai 20 f/stoppia) kattaa photopic
(siis (päivän)valoon adaptoituneen) sekä scotopic (pimeään
adptoituneen) näköaistimuksen. Tämän takia emme näe tähtiä
pilvettömältä paivätaivaalta, ne ovat valovoimaltaan niin heikkoja
että valoon adaptoitunut näköaisti ei niitä erota lainkaan, tuo
photopic alueen alaraja on kirjallisuuden mukaan jossakin 0,3cd/m2 ...
3cd/m2 välimaastossa. Tämä raja johtuu siitä että silmässä on
kahdenlaisia näkösoluja, varsin herkkiä sauvasoluja jotka näkevät
hyvin pimeässä, ne eivät tuota väri-informaatiota lainkaan sekä
tappisoluja jotka tuottavat värivasteen mutta ovat epäherkempiä.
Photopic tilanteessa sauvasolut ovat (nykykäsityksen mukaan) täysin
saturoituneet eli poissa pelistä.

Myöskään täysi photopic alue (joka on luokaa 5 ... 6 f/stoppia
vähemmän kuin valo-adaptaatiokyky kokonaisuudessa) ei ole
kokonaisuudessaan käytettävissä kun tarkastellaan kohdetta jonka
valaistuksen voimakkuus ei muutu. Tästä löytyy valitettavan vähän
tutkimustuloksia, yleensä arvon tohtorit vain ilmoittavat ilman
mitään perusteluja jonkin dynaamisen alueen tuolle näköaistin
hetkelliselle (siis tilanne kun valaistuksen voimakkuus ei muutu)
dynaamiselle alueelle, nämä arviot vaihtelevat välillä 5 f/stoppia
... 10 f/stoppia. Tälle ei ole löydettävissä mitään kovin tarkkaa
arvoa sillä se kuinka suuren dynaamisen alueen kykenemme kulloinkin
havaitsemaan riippuu kohteesta, kun siitä erittäin suurikokoinen
osa-alue on hyvin tummaa niin paikallinen adaptaatio on maksimissaan
mutta jostain syystä paikallinen adaptaatio on kuitenkin osittain
rajoittunut kohteen maksimi- tahi keskimääräiseen valaistukseen
voimakkuuteen, se ei voi vapaasti muuttua osa-aluekohtaisesti niin
laajalti mitä koko photopic alue on.

Timo Autiokari

Ville Voipio

unread,
Jun 12, 2006, 8:41:42 AM6/12/06
to
In article <lLzig.756$iU4...@reader1.news.jippii.net>, Timo Autiokari wrote:
> Ville Voipio wrote:
>
> > jos puhutaan taas tästä lineaarisesta dynamiikasta.
>
> Ei ole mitään "lineaarista dynamiikka" ja sitten jotakin muuta esim
> "epälineaarista"(?) tms dynamiikkaa.
>
> Kameroille (yms mittalaitteille) on dynaaminen alue, se on varsin
> yksiselitteinen, siis millaisen dynaamisen alueen laite kykenee
> tallentamaan.

Tässä viisautta Measurement Science Review'sta:

"Dynamic range describes the range of the input signal
levels that can be reliably measured simultaneously,
in particular the ability to accurately measure small
signals in the presence of the large signals."

Jos ajatellaan yksittäistä pikseliä, tämä tarkoittaa sitä, että
pienten ajallisten vaihteluiden pitää erottua suuren tason
päältä. Tällä määrittelyllä lineaarinen järjestelmä on kaikkein
paras, kaikki kompressio heikentää tilannetta.

Jos ajatellaan koko elementtiä, tätä voidaan tulkita niin, että
suuri signaali ja pieni signaali ovat eri pikseleiden kohdalla.
Tällöin päästään siihen määritelmään, jossa katsotaan kuvan
pimeintä ja kirkkainta aluetta.

Toisaalta tällä spatiaalisellakin tulkinnalla voidaan ajatella,
että kuvassa on voimakas tausta, jonka päällä on jotain heikkoa
signaalia. Sitten ollaan takaisin lineaarisessa järjestelmässä.

Valolla käy kyllä väistämättä niin, että fotonikohina rajoittaa
lineaarisen määritelmän mukaista dynaamista aluetta, koska
isommilla valaistuksilla signaalin ja kohinan suhde tulee fotonien
määrän neliöjuuresta.

AD-muuntimissa on myös käytössä SFDR, jossa todella on samaan
aikaan paikalla suuri ja pieni signaali. Minun perspektiivistäni
tuo "suurin ja pienin signaali" ilman yhtäaikaisuuden vaatimusta
on harvinaisempi määritelmä. Kameroissa se on usein perusteltu,
mutta niin on tuo toinenkin määritelmä.

Timo Autiokari

unread,
Jun 12, 2006, 12:31:36 PM6/12/06
to
Ville Voipio wrote:

> Tässä viisautta Measurement Science Review'sta:
>
> "Dynamic range describes the range of the input signal
> levels that can be reliably measured simultaneously,
> in particular the ability to accurately measure small
> signals in the presence of the large signals."

Ja erittäin suuri viisaus on se.

> Jos ajatellaan yksittäistä pikseliä, tämä tarkoittaa sitä, että
> pienten ajallisten vaihteluiden pitää erottua suuren tason
> päältä. Tällä määrittelyllä lineaarinen järjestelmä on kaikkein
> paras, kaikki kompressio heikentää tilannetta.

Ongelma tässä on sinun tulkintasi joka on kokonaan virheellinen ainakin
tässä yhteydessä, kun puhutaan niistä digitaalikameroista joista täällä
puhutaan.

Meidän kameramme integroivat kuvadataa. Siis kohteessa paljon eri
signaaleita (valaistuja pintoja) kameramme keräävät valotusajan kuluessa
pinnoilta tulevia fotoneita pixeli pixeliltä, muuttaen niitä
elektroneiksi. Valotusajan jälkeen kuhunkin yksittäiseen pixeliin on
kertynyt jokin varaus (joka on tietyssä suhteessa vastaavaan signaaliin,
siis vastaavaan pintaan), tämä varaus näkyy varauskapasitanssin
jännitteenä ja siirretään A/D muuntimeen joka antaa sitten digitaalisen
arvon ko signaalille. Meidän kameramme voivat _yhtäaikaisesti_ mitata
erilaisia signaaleita vain _eri_ pixelien avulla, ei yhden pixelin
avulla. Itseasiassa minkäänlainen kamera ei voi _yhtäaikaisesti_ mitata
yhden pixelin avulla kuin yhtä signaalia.

Suomennan tuon postaamasi viisauden vielä tähän:

Dynaaminen alue ilmaisee sen tulosignaalien välisen alueen joka voidaan
luotettavasti mitata yhtäaikaisesti (pilkku) nimenomaisesti kykyä mitata
pieniä signaaleita silloin kun suuria signaaleita on läsnä/mukana.

Tuo pilkun jälkeinen "selvennys" on epäselvä ja turha.

Pilkkua edeltävä lause on varsin hyvä mutta se ymmärretään lähes aina
väärin ja siis dynamiikka sitten mitataan väärin ja/tai tulokset
käsitellään väärin. Kameroiden kanssa tavanomainen mittaustekniikka
ja/tai tulosten käsittely mahdollistaa sellaisen tilanteen että jokin
pinnan signaalien keskiarvo kyllä voidaan mitata luotettavasti ja se
erottuu luotettavasti vaikkapa 3 f/stoppia vaaleamman pinnan signaalien
keskiarvosta mutta tältä väliltä, kohinasuodatuksen ansiosta, ei erotu
_yhtään mitään_ kuvainformaatiota. Nämä mittaukset kun aina tehdään
tasaisia pintoja mitaten (kuvaten) ja signaalin _keskiarvo_ sekä kohina
määritellään (siis arvioidaan) kummatkin keskiarvona esim 10000 pixelin
alueelta. Esim Imatest ohjelma tyrii juuri tässä. Mutta tuo pikkua
edeltävä lause kuului että:

Dynaaminen alue ilmaisee sen tulosignaalien välisen alueen joka voidaan
luotettavasti mitata yhtäaikaisesti

eikä näin:

Dynaaminen alue ilmaisee sen tulosignaalien keskiarvojen välisen alueen
joka voidaan luotettavasti mitata yhtäaikaisesti

> Jos ajatellaan koko elementtiä, tätä voidaan tulkita niin, että
> suuri signaali ja pieni signaali ovat eri pikseleiden kohdalla.

Ei tässä ole _mitään_ tulkinnanvaraa. Kamera voi yhtäaikaisesti mitata N
signaalia vain N pixelin avulla ja kuten tunnettua eri pixelit ovat eri
paikoissa.

> Toisaalta tällä spatiaalisellakin tulkinnalla voidaan ajatella,
> että kuvassa on voimakas tausta, jonka päällä on jotain heikkoa
> signaalia. Sitten ollaan takaisin lineaarisessa järjestelmässä.

Ei tämä ole mitenkään erityisesti "lineaarinen järjestelmä" eikä
määrittele dynaamista aluetta. Tämän avulla voidaan arvioida, tietyin
oletuksin, se dynaaminen alue jota kamera ei voi mitenkään saavuttaa
mutta voi mahdollisesti päästä lähelle sitä, tästä jo aiemmassa
messussani kirjoitin.

Dynaaminen alue on dynaaminen alue, se _aina_ määritellään ja lasketaan
lineaarisista mittaustuloksista. Esim: sen vaaleimman pinnan
heijastuskerroin jettuna sen tummimman pinnan heijastuskertoimella
joidenka väliltä mikä tahansa heijastuskerroin voidaan luotettavasti
mitata pixelikohtaisesti (eikä pixelien keskiarvokohtaisesti).

> Valolla käy kyllä väistämättä niin, että fotonikohina rajoittaa
> lineaarisen määritelmän mukaista dynaamista aluetta, koska
> isommilla valaistuksilla signaalin ja kohinan suhde tulee fotonien
> määrän neliöjuuresta.

Tällä "lineaarisella määritelmällä" ilmeisesti tarkoitat
maksimisignaaleiden keskiarvon suhdetta niistä laskettuun
standarideviaatioon. Tuo standarideviaatio on yksi arvio kohinan
määrälle. Siis esim keskiarvo yli 100x100 pixelin tasaisen pinnan joka
on valotettu niin että mappautuu lähelle 255:ttä (8-bit notaatiossa)
mutta sen verran alemmas ettei kohinat leikkaudu. Se on erinomainen
määritelmä joka antaa arvion dynaamiselle alueelle jota ei mitenkään voi
ylittää eikä edes saavuttaa. Mutta ei alkuunkaan sovellu kameroille
jossa on käytössä "kehittyneempi" kohinansuodatus, siis kamerat joiden
kuvien sanotaan antavan muovisen vaikutelman.

> AD-muuntimissa on myös käytössä SFDR, jossa todella on samaan
> aikaan paikalla suuri ja pieni signaali.

Spurious Free Dynamic Range ei ole _käytössä_ A/D muuntimissa vaan se
vain on eräs mitattavissa ole suure, spesifikaatio, jonka avulla A/D
muuntimien tietynlaista toimintakykyä arvioidaan. Sillä ei ole mitään
käyttöä valokuvauksessa jossa signaali kullakin pixelillä on staattinen.
Vaan käyttöä on esim äänentoistossa ja radio-, TV- ja ylipäätään
kaikilla sellaisilla signaaliteillä joissa näytteistetään mitä tahansa
jatkuvasti muuttuvaa signaalia.

Timo Autiokari

Timo

unread,
Jun 12, 2006, 1:34:27 PM6/12/06
to
On 2006-06-12, Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> Ville Voipio wrote:
> > Tässä viisautta Measurement Science Review'sta:
> >
> > "Dynamic range describes the range of the input signal
> > levels that can be reliably measured simultaneously,
> > in particular the ability to accurately measure small
> > signals in the presence of the large signals."
>
> Ja erittäin suuri viisaus on se.
>
> Ongelma tässä on sinun tulkintasi joka on kokonaan virheellinen ainakin
> tässä yhteydessä, kun puhutaan niistä digitaalikameroista joista täällä
> puhutaan.

> > AD-muuntimissa on myös käytössä SFDR, jossa todella on samaan


> > aikaan paikalla suuri ja pieni signaali.
>
> Spurious Free Dynamic Range ei ole _käytössä_ A/D muuntimissa vaan se
> vain on eräs mitattavissa ole suure, spesifikaatio, jonka avulla A/D
> muuntimien tietynlaista toimintakykyä arvioidaan. Sillä ei ole mitään
> käyttöä valokuvauksessa jossa signaali kullakin pixelillä on staattinen.

Todellakin, dynaamiselle alueelle on melkein yhtä monta määritelmää kun
on insinöörejäkin: http://en.wikipedia.org/wiki/Dynamic_range.
Jokaisessa yhteydessä käsite liittyy jotenkin siihen, miten suuria ja
pieniä signaaleja voidaan käsitellä, mutta määritelmien yksityiskohdat
on aluespesifisiä.

Myös valokuvauksessa dynamiikka on varsin vakiintunut käsite jo
filmiajoilta ja yrittää kiteyttää nimenomaan ajatuksen siitä, miten
kirkasta kirkasta ja tummaa varjoa voidaan samaan kuvaan siepata, niin
että yksityiskohdat erottuu sekä kirkkaissa, että varjo-osissa.
Filmikuvauksessa dynaaminen alue on hyvin määritelty karakteristisen
käyrän avulla:

http://photography.about.com/library/glossary/bldef_characteristic.htm

Myös siihen, mikä kameran pikslein tuottama lukuarvo vastaa mitäkin
valomäärää sensorilla vaikuttaa lähinnä sensorin karakterista käyrää
vastaava kuvaus, joka on siis digikameran tapauksessa funktio
H(E): (-inf, inf) -> [0, 2^K -1] jossa määrittelyjoukko on siis jatkuva
väli ja kuvajoukko diskreetti.

En mistään ainakaan löydä ihan virallista määritelmää digikameran
dynaamiselle alueelle, mutta se liittyy edelleen lähinnä siihen, mitkä
arvot määrittelyjoukon arvot kuvautuu suuremmiksi kuin nolla ja pienemmiksi
kuin 2^K-1. Tällainen määritelmä on tietenkin petollinen, sillä se ei
mainitse mitään kahden peräkkäisen sävyeron välisestä askeleesta. Niinkun
tiedämme, esim. D70:n tapauksessa tuo askel ei RAW moodin 12 bittisessä
tallenteessa ole edes vakio.

Tässä vielä aiheeseen liittyvä kuriositeetti:
http://www.dpreview.com/news/0009/00090702columbiadynrange.asp

Täytyy muistaa myös, että filmiaikana monet kuvasivat dialle koska
sen sävyt ja värit oli niin syviä ja kylläisiä. Tämä johtui tietenkin
paljolti siitä, että dian karakteristinen käyrä on jyrkkä (eli
dynaaminen alue kapea) ja projektorin kirkaimman ja tummiman sävyn
ero yleensä suurempi kuin paperivedoksen päivän valossa. Näin
kapea dynamiikka tallenteessa ja leveä esittäessä saattoi
"parhaimmillaan" johtaa siihen, että kuvaa esitettäessä kontrasti
oli suurempi kuin alkuperäisessä maisemassa.

Suuri dynaaminen alue ei siis edes ole mikään itseisarvoisesti
hyvä ominaisuus kuvauskalustolta.

--
Timo

paul...@yahoo.com

unread,
Jun 12, 2006, 1:53:09 PM6/12/06
to
Timo Autiokari kirjoitti:

> paul...@yahoo.com wrote:
>
> >Ainoastaan aukon säätö on jokseenkin samanlainen.
> >Valotusajan säätöä ei silmässä ole
>
> Näköaistin valo-adaptaatio on erittäin samankaltainen adaptaatio kuin
> mitä kamerassa tapahtuu kun säädetaan aikaa, tai aukkoa tai kumpaakin.
> Siis näkemisen/valotuksen kannalta tietenkin.

Juurihan minä selitin, että ainoa samankaltaisuus on aukon
säädössä (joka muodostaa varsin pienen osan adaptiosta,
n. 4 stoppia).

>
> > Ihmisen silmän näkösolut sen sijaan pystyvät
> > adaptoitumaan jokainen erikseen.
>
> Eivät pysty. Jos pystyisivät niin emme näkisi juurikaan mitään detaljeja
> (siis esineiden, kappaleiden, jne rajoja) kun ne adaptoituisivat pois.

Kyllä pystyvät. Ja kyllä ne yksityiskohdat adaptoituvatkin
pois, jos silmä vastaanottaa samaa kuvaa useamman sekunnin
ajan. Juuri siitä syystä emme näe esim. silmän sokeaa
pistettä emmekä silmässä olevia vikoja.

Normaalisti silmä kuitenkin kääntyilee koko ajan himpun
verran osittain juuri adaption vuoksi (ja osittain
resoluution parantamiseksi ja ääriviivojen tarkentamiseksi).

Adaptoitumista voit testata seuraavasti:
1. Tuijota vähintään parinkymmenen sekunnin ajan jotain
voimakasta kuviota mieluiten melko kirkkaassa valossa.
2. Käännä katseesi tasaiselle pinnalle.
Nyt näet kuvion negatiivisena adaption seurauksena.
Tämä negatiivinen jälkikuva häviää hetken kuluttua.

>
> Paikalliseen adaptaatioon tarvitaan noin 10 asteen näkymä ja silloin
> efekti on varsin heikko, efekti kasvaa kun kulma kasvaa.

Höpön löpön. Se, mihin tarvitaan laaja näkymä, on
*globaali* adaptoituminen.

>
> Ei todellakaan kukin solu autonomisesti.

Kyllä todellakin kukin solu autonomisesti.

Itse asiassa suuri osa adaptiosta tapahtuu automaattisesti
silmän toimintaperiaatteen seurauksena peräti yksittäisen
valoherkän molekyylin tasolla, ilman että solun edes
tarvitsee mihinkään aktiivisiin säätötoimiin ryhtyä.

Kun molekyyli vastaanottaa fotonin ja lähettää sähköpulssin
hermolle, se samalla muuttuu kemiallisesti, muuttuen
samalla läpinäkyväksi (bleaching). Vasta kun solu on
aktiivisesti muuttanut molekyylin kemiallisen rakenteen
takaisin, se pystyy vastaanottamaan uuden fotonin. Mitä
suurempi osa molekyyleistä on kykenemätön vastaanottamaan
valoa, sitä epäherkempi solu on valolle. Näin solu
automaattisesti valon vaikutuksesta adaptoituu
kirkkaaseen valoon. Hämärään solu adaptoituu sitä
mukaa kun se ehtii tuottaa valoherkkää pigmenttiä.

Sen lisäksi solu sitten aktiivisesti säätää herkkyyttään
mm. kontrolloimalla valoherkistä molekyyleistä tulevia
sähkösignaaleja.

Adaptotuminen tapahtuu siis solukohtaisesti. Solut
kuitenkin lisäksi keskustelevat keskenään. Jos joku
solu vastaanottaa voimakasta valoa, ympäröivät solut
voivat jo alkaa valmiiksi adaptoitua kirkkaaseen
valoon siltä varalta, että silmä kääntyy.

Toisaalta, tämän solujen välisen kommunikoinnin
avulla verkkokalvo myös pystyy hahmottamaan reunaviivat
ja kuviot tarkemmin niin tummissa kuin vaaleissa
osissa kuvaa. Tämän ansiosta silmän dynamiikka
on huomattavasti laajempi kuin digikameran.

--
Pauli

paul...@yahoo.com

unread,
Jun 12, 2006, 1:54:19 PM6/12/06
to
Timo Autiokari kirjoitti:
> paul...@yahoo.com wrote:

>
> Olet autuaan väärässä tässäkin. sadRGB:llä on niin sanottu
> slope-limiting ominaisuus siirtokäyrän tummassa päässä, sillä on suuri
> ero gamma 2.2:een joka on esim AdobeRGB:n siirtokäyrä. Opiskele täältä:
> http://www.w3.org/Graphics/Color/sRGB

Tässä olet oikeassa. Unohdin, että tuo lineaarinen alue
vaikuttaa noinkin paljon, ja juuri tason 1 kohdalla.

>
> sadRGB koodaa 3294,6:1 dynaamisen alueen.
> AdobeRGB koodaa 196964,7:1 dynaamisen alueen.

Tuo 3294:1 (n. 3.5D eli hieman alle 12 aukkoa) on hieman
enemmän kuin parhaiden värinegatiivifilmien dynamiikka,
eli se riittää juuri sopivasti kaikkiin käytännön
tarkoituksiin. (Digikameralle sRGB riittääkin sitten
jo reilusti.) Eli sRGB:ssä dynamiikka-alue on valittu
juuri sopivasti.


>
> Tuo sadRGB:n slope limiting muuten aiheuttaa sen että sadRGB ICC
> profiileissa siirtokäyrä on pakko määritellä look-up-tauluna, joka on
> joko 10 bittinen tai 12-bittinen. Tavallisissa työtilaprofiileissa
> siirtokäyrä on matemaattinen gamma funktio eli se lasketaan käytännössä
> vähintään 31 bittisenä. Look-up-taulusta seuraa tietynkaltaisia ongelmia
> kuvanlaatuun.

Tässäkin asiassa todellisuus on täsmälleen päinvastainen.

sRGB:n gammakäyrässä on alussa lyhyt lineaarinen alue
juuri sen vuoksi, että voitaisiin käyttää matemaattista
funktiota. Pelkän gammakäyrän käänteisfunktio nimittäin
lähestyy nollan lähellä ääretöntä. Nollan kohdassa tulee
sitten jako nollalla. sRGB:ssä sen sijaan alkuosa on
lineaarinen, joten se voidaan laskea matemaattisesti
ilman look-up taulua, jonka pelkkä gammafunktio vaatisi.

>
> > Se, missä Adoben viritys eroaa standardista on, että
> > adobella on laajempi sävyalue. Eli ennen kuvan
> > tallettamista on värikylläisyyttä pienennetty, ja
> > kuvaa näytettäessä se sitten kasvatetaan normaaliksi.
>
> Täysin väärin. Työtilaprofiilit eivät aiheuta sitä että "ennen kuvan
> tallettamista värikylläisyyttä pienennetään".

Ja mitenkähän sinä kuvittelet, että se laajempi
gamut saadaan aikaan? Miksi vouhkaat suu vaahdosssa
sellaisesta asiasta, josta et ymmärrä mitään?

>
> > Laajemmasta sävyalueesta ei kuitenkaan ole mitään hyötyä,
> > koska mikään reaalimaailmaa esittävä kuva ei käytännössä
> > sisällä värejä, jotka eivät mahtusisi sRGB:n sävyalaan,
>
> Täysin väärin tämäkin. Esim monien liikeyritysten logon värit eivät
> mahdu sadRGB väriavaruuteen. Monet automaalit samoin.

Olet jälleen täysin väärässä. Nythän oli puhe reaalimaailman
kuvista, ei tietokoneella tehdyistä, keinotekoisen voimakkaita
värejä sisältävistä kuvista.

Ensinnäkin, reaalimaailmassa ei esiinny kovin räikeitä
värejä, johtuen siitä, että reaalimaailman värit
ovat lähes aina substraktiivisia.

Toiseksi, kaikki normaalit digikamerat ja skannerit
käyttävät RGB-värejä. Näin ollen kaikki niiden
rekisteröimät värit mahtuvat RGB-värikolmioon, jonka
kaikki värit sRGB pystyy tallentamaan.


> > Mutta kun laajempi sävyalue esitetään samalla bittimäärällä,
> > niin sävyresoluutio huononee. Jos siis esim. kamerassa on
> > mahdollisuus käyttää AdobeRGB:tä, niin sitä ei kannata käyttää.
>
> Tämäkin on täysin väärin. Aina käyttää laajinta gamuttia joka on tarjolla.

Järjetön mielipide. Olet jälleen kerran täysin väärässä.

Mittaus- ja säätötekniikan insinöörinä voin kertoa sinulle
sellaisen mittaustekniikan perussäännön, että mittaus
kannattaa aina tehdä kapeimmalla mahdollisella mittausalueella.
Muuten menetetään tarkkuutta.

Valokuvauksessa tämä tarkoittaa sitä, että jos käyttää
tarpeettoman laajaa gamuttia, niin kuvan laatu huononee.

Kaikki kameran rekisteröimät värit mahtuvat sRGB avaruuteen.
Jos laajennat gamuttia tästä, ei siihen kuvaan synny lisää
värejä vaan ainoastaan käyttämätöntä aluetta, ja olemassa
olevien värien esittämiseen käytettävällä alueella on
huonompi resoluutio.

Kamerassa kannattaa siis aina käyttää sRGB väriavaruutta
tai sitten kuvata RAW-muodossa.

--
Pauli

Timo Autiokari

unread,
Jun 12, 2006, 2:16:40 PM6/12/06
to
Timo wrote:

> Suuri dynaaminen alue ei siis edes ole mikään
> itseisarvoisesti hyvä ominaisuus kuvauskalustolta.

ON on on ON. Itseisarvoisesti ja lähtökohtaisesti _kaikkein_ tärkein
ominaisuus.

Mitä suurempi dynaaminen alue digikameralla on sen enemmän kuvainfoa
scenesta tallentuu ja sitä vähemmän kaikkea kohinaa on. Toistokäyrää voi
digikuvauksessa aina ja helposti säädellä ja jopa leikata jälkeenpäin
(Curves:lla) mikäli suuri dynamiikka joskus jotain ongelmaa toisi.

Perinteisessä (filmi) kuvauksessa tuo toistokäyrä-aspekti on kriittinen
koska toistokäyrää ei voi jälkikäteen ollenkaan helposti säätää. Dialla
ei lainkaan (paitsi tekemällä dupe varsin maagisin keinoin maskaten) ja
nega->paperi:llä se on epämääräisitä hakuammuntaa (eri papereiden
kokeilemista mutu tekniikalla tai samankaltaisia maskejä voi yrittää
valmistaa kuin dupella, Anselmi yritti sitä säätää ali/ylivalottamalla
negaa joka on varmaan helpoin menetelmä mutta sekin epätarkka ja siinä
tingitään kokonaisdynamiikasta). Eli tavallinen kuvaaja ei käytännössä
voi filmikuvauksessa säätää toistokäyrää lainkaan, se vain on sitä mitä
käytettu matsu sattuu antamaan.

Timo Autiokari

Timo Autiokari

unread,
Jun 12, 2006, 2:37:35 PM6/12/06
to
paul...@yahoo.com wrote:

> Miksi vouhkaat suu vaahdosssa sellaisesta
> asiasta, josta et ymmärrä mitään?

No kuule, olen tässä 10 vuotta opiskellut väriteoriaa, värinhallintaa
sekä näköaistin toimintaa ja väsäsin siinä yhteydessä kasaan muun muassa
ICC profilointiohjelman joka soveltuu kameroille ja skannereille:
http://www.aim-dtp.net/aim/calibration/xlprofiler/index.htm
(kyllä se on ohjelma vaikka toimiikin Exelissä). Toinen varsin tehokas
ja kattava väriteorian työkalu jonka olen kehitänut on AIM-XLA:
http://www.aim-dtp.net/aim/technology/aim_xla/index.htm

Tietyntasoista ymmärrystä noiden kanssa on kaivattu.

Nyt vouhkaan sinut suu vaahdossa samaan kastiin Jore Puusan kanssa, eli
en enää näe sinun viestejäsi enkä sellaisia viestejä joissa on sinun
tunnistetiedot joko headereissä tai bodytestissä.

En jaksa oikoa sinun taysin perustelemattomia tuulesta temmattuja
väitteistäsi joista kaikki messusi kokonaan koostuvat.

Timo Autiokari

Timo

unread,
Jun 12, 2006, 3:16:00 PM6/12/06
to
On 2006-06-12, Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> Timo wrote:
>
> > Suuri dynaaminen alue ei siis edes ole mikään
> > itseisarvoisesti hyvä ominaisuus kuvauskalustolta.
>
> ON on on ON. Itseisarvoisesti ja lähtökohtaisesti _kaikkein_ tärkein
> ominaisuus.

Niinkun tuo yksi killfileesi joutunut mittaustekniikan insinööri
totesi, niin tyypillisesti mittausaluetta laajennettaessa tarkkuutta
katoaa. Tietysti, jos mittaustarkkus ei kärsisi ja bittejä lisätään
vastaavasti, ei dynamiikan lisääminen teoriassa välttämättä olisi
mistään pois, mutta käytäntö on kuitenkin toinen.

Mielestäni sävyjen, kuten ihon värin pehmeiden gradienttien, tasainen
ja luonnollinen toisto on paljon tärkeämpää kun hiton laaja dynaaminen
alue. Käytännössä laaja dynaaminen alue olisi todennäköisesti pois
tällaisista ominaisuuksista ja aivan varmasti tilanne on tämä jos
kuvan värisyvyyttä (bittien määrää) ei lisätä.

Toisekseen, kaikki ei halua käsitellä jokaista kuvaa erikseen
tietokoneella uudelleen. Suurin osa kuluttajakameroista pyrkii
suoraan otoksesta tallentamaan tulostukseen sopivan jpegin, jolloin
tuo jpegin data kannattaa normaalitilanteissa yleensä kerätä
kohtuu kapealta kirkkausalueelta.

--
Timo

Timo

unread,
Jun 12, 2006, 3:31:58 PM6/12/06
to
On 2006-06-08, Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> Tämäkin on täysin väärin. Aina käyttää laajinta gamuttia joka on tarjolla.

Tuota väitettä sietäisi perustella. Ainakin yksi oppikirja esittää
eriävän mielipiteen:

"Jos Adobe RGB on kerran laajempi väriavaruus kuin sRGB, eikö kannata
käyttää aina sitä?

Vastaus ei ole yksiselitteinen, vaan riippuu tilanteesta..."
- Suvanto, Mäkelä, Henkilökuvaus digi-kameralla, Docendo 2004

Voisin esimerkiksi määritellä "väriavaruuden" joka pitäisi sisällään
sähkömagneettisen säteilyn aallonpituudet 1nm - 1m, paljon enemmän
kuin pelkän näkyvän valon siis. Jos tähän käytetään se tavalliset
24 bittiä, niin pikaisten laskujeni perusteella mukaan mahtuu arviolta
noin viisi eri sävyä näkyvän valon alueelta.

Esimerkki on kärjistetty, mutta pointti on se, että ei värialueen
laajentaminen on (jälleen kerran bittejä lisäämättä) pois tarkkuudesta:
vierekkäiset sävyt ovat kauempana toisistaan ja gradientit tulevat
portaisemmiksi.

--
Timo

Timo Autiokari

unread,
Jun 12, 2006, 5:12:49 PM6/12/06
to
Timo wrote:

> Tuota väitettä sietäisi perustella. Ainakin yksi oppikirja esittää
> eriävän mielipiteen:
>
> "Jos Adobe RGB on kerran laajempi väriavaruus kuin sRGB, eikö kannata
> käyttää aina sitä?
>
> Vastaus ei ole yksiselitteinen, vaan riippuu tilanteesta..."
> - Suvanto, Mäkelä, Henkilökuvaus digi-kameralla, Docendo 2004

Oletuksena oli että käytössä on 16-bit/c moodi mutta unohdin mainita
siitä. Unohdin varmaankin siksi ettei se ole kovin oleellinen seikka.

Harmaaskaala (mustasta valkoiseen) omaa aivan saman digitaalisen reson
riippumatta gamutista. Siihen nähden värit RGB avaruudessa omaavat
keskimäärin lähes 3 kertaisen digitaalisen reson (kun ne muodostuvat
niin R, G ja B kanavista joilla kullakin on sama reso kuin
harmaaskaalalla). Ainoastaan ne värit jotka tarkalleen ovat ko
väriavaruuden primääri (R, G tai B) akselilla sekä ne värit jotka
tarkalleen ovat ko väriavaruuden sekundääriakselilla (C, M tai Y)
omaavat saman digitaalisen reson kuin harmaaskaala.

Kun käytetään suurehkoa gamuttia kuten AdobeRGB, niin maksimisaturaatio
joka voidaan koodata on suuri eli esim värit jotka mappautuvat sadRGB:n
maksimisaturaatioon mappautuvat AdobeRGB:ssä jonnekin digitaalisen
koodiavaruuden puoliväliin/akseli. Mutta tällä ei ole niin suurta väliä
kun ne vieläkin keskimäärin omaavat about samankaltaisen reson kun
harmaaskaala.

Millä on väliä on gamutin (joka on 3-ulotteinen kokonaisuus) muoto,
etenkin kirkkaassa päässä, sadRGB ja kaikki muut monitoriaproximaatiot
ovat erittäin rajoittuneita siellä, siis siinä missä esim AdobeRGB
kykenee koodaamaan virheettä kirkkaat + voimakkaasti saturoituneet värit
niin ne leikkautuvat jos ne ruttaa sadRGB väriavaruuteen.

Kameran RAW data puolestaan on _hervottomasti_ suuremmassa gamutissa
kuin AdobeRGB. Eli, siinä että sen ottaa vaikkapa ACR:lla ProPhotossa
(suurin gamut mitä ACR tukee) Photoshopiin ei häviä yhtään mitään. Ko
suurigamuttinen data voidaan sitten Photoshopissa tarvittaessa
muokata/sovittaa pienempään gamuttiin paljon hienostuneemin (niin että
paljon enemmän kuvainfoa säilyy verrattuna raakaan gamut leikkaukseen).
Siinä että panee ACR:n ruttaamaan datan sadRGB:een menettää lähes aina
gamut leikkautumisen takia.

> Voisin esimerkiksi määritellä "väriavaruuden" joka pitäisi sisällään
> sähkömagneettisen säteilyn aallonpituudet 1nm - 1m, paljon enemmän
> kuin pelkän näkyvän valon siis. Jos tähän käytetään se tavalliset
> 24 bittiä, niin pikaisten laskujeni perusteella mukaan mahtuu arviolta
> noin viisi eri sävyä näkyvän valon alueelta.

Niin, minun RGB työtila on nimeltään 'CIE 1931 D65 gamma 1.0', se on
siis CIE XYZ:n kokoinen eli _paljon_ suurempi kuin AdobeRGB. Ei ole
mitään ongelmaa editoida siinä, edes 8-bit/c moodissa.

> Esimerkki on kärjistetty, mutta pointti on se, että ei värialueen
> laajentaminen on (jälleen kerran bittejä lisäämättä) pois tarkkuudesta:
> vierekkäiset sävyt ovat kauempana toisistaan ja gradientit tulevat
> portaisemmiksi.

Niin, 8-bit/c RGB työtilassa on harmaasävyjä 256 kpl oli gamut aivan
mikä tahansa. Erilaisia värejä ko työtilassa on sitten 16776960 kpl. Eli
tuota värigradienttia voi täysin huoletta väljentää aika paljon
saadakseen etuna mahdollisuuden tallettaa suuremman saturaation. Ja kun
käytössä on 16-bit/c työtila niin ei ole mitään huolta näistä
gradaatio-seikoista kunhan ei mennä järjettömyyksiin (siis rajusti yli
CIE XYZ:n).

Timo Autiokari

timo.au...@aim-dtp.net

unread,
Jun 13, 2006, 2:12:20 AM6/13/06
to
Timo wrote:

> Niinkun tuo yksi killfileesi joutunut mittaustekniikan insinööri totesi,
> niin tyypillisesti mittausaluetta laajennettaessa tarkkuutta katoaa.

Tietoliikennetekniikan insinöörinä minulla on se merkittävä etu
puolellani että kykenen katsomaan sovellusta laajemmin, kattavammin,
kun pelkästään yhden osa-alueen (mittaus) kannalta.

> Tietysti, jos mittaustarkkus ei kärsisi ja bittejä lisätään vastaavasti,
> ei dynamiikan lisääminen teoriassa välttämättä olisi mistään pois,
> mutta käytäntö on kuitenkin toinen.

Digitaalisen kuvan kannalta 8-bit/c on harmaaskaalan osalta nipin napin
riittävä, harmaan eri tasoja on vain 256 kpl. Erilaisia värejä
siitten on se yli 16 miljoonaa, niistä voi tinkiä aika lailla
sovelluksen kärsimättä, etenkin kun tuo tinkiminen tuo erinomaista
etua saturaation kannalta. Kun vielä muistetaan että näköaistikin
on tri-kromaattinen, se on siis herkin harmaaskaalalla oleville
muutoksille: Kun katsomme harmaita pintoja on meidän kolmella
erilaisella värinäkösolulla kaikilla yhtäläisen voimakas
stimulaatio. Kun katsomme esim sinistä pintaa niin vain
yhdenkaltaisilla niistä on voimakas stumulaatio.

> Mielestäni sävyjen, kuten ihon värin pehmeiden gradienttien, tasainen
> ja luonnollinen toisto on paljon tärkeämpää kun hiton laaja dynaaminen
> alue.

Hyvä kuvanlaatu on tärkeintä. Ja yli kaiken tärkein parametri sen
saavuttamiseksi on laaja dynaaminen alue. Mielestäni esim 16 f/stoppia
olisi jo varsin hyvä, mutta en panisi lainkaan pahakseni esim 32
f/stoppia.

> Käytännössä laaja dynaaminen alue olisi todennäköisesti pois
> tällaisista ominaisuuksista ja aivan varmasti tilanne on tämä jos
> kuvan värisyvyyttä (bittien määrää) ei lisätä.

Ei ole. Tätä voit itsekin helposti testata/arvioida, pudota "kamalan"
suurigamuttien 'CIE 1932 D65 gamma 1.0' RGB työtila minun saitilta
http://www.aim-dtp.net/aim/download/aim_profiles.zip ja vertaile sitten
editointituloksia vaikkapa sadRGB:n välillä. Tottakai _ mitattavissa_
olevaa eroa (mitattavissa esim Histogram työkalun avulla) voit havaita
mutta näköaistin avulla havaittavia ongelmia kuvanlaadussa ei ole.
Sen sijaan esim saturaation leikkautuminen sadRGB.ssä tulee hyvin
nopeasti eteen kun kuvia vähänkin enemmän käsittelee.

> Suurin osa kuluttajakameroista pyrkii suoraan otoksesta
> tallentamaan tulostukseen sopivan jpegin,

Eivät alkuunkaan tee noin vaan auto-viimeistelevät
_kuvaruutunäyttöä_ varten. Ja tarkemmin, vieläkin on niin että tuo
optimointi on lähempänä Mac:n AppleRGB:tä kuin esim sadRGB:tä.

Tulostinten ominaisuudet vaihtelevat _erittäin_ paljon, kameroiden ei
ole mitenkään mahdollista optimoida JPEG kuvia tulostusta varten
koska mitään edes hehtaarilleen kohdalleen määriteltyä
"keskimääräsitä tulostinta" ei ole mahdollista speksata. Ja mitä
tahansa tulostinta varten optimoitu kuva näyttää ruutuversioon
verrattuna varsin kehnolta kuvaruudulla, tätä voit tutkia helposti
Photoshopissa panemalla Soft-Proofing:n päälle käyttämällesi
tulostimelle.

Timo Autiokari

paul...@yahoo.com

unread,
Jun 13, 2006, 12:28:35 PM6/13/06
to
Timo kirjoitti:

>
> Myös valokuvauksessa dynamiikka on varsin vakiintunut käsite jo
> filmiajoilta ja yrittää kiteyttää nimenomaan ajatuksen siitä, miten
> kirkasta kirkasta ja tummaa varjoa voidaan samaan kuvaan siepata, niin
> että yksityiskohdat erottuu sekä kirkkaissa, että varjo-osissa.

Aivan. Oleellista on nimenomaan tummien ja vaaleiden, vielä
erottuvien kohteiden välinen kirkkausero. Ei se, miten pienet
kirkkauserot siinä vaalealla alueella voidaan erottaa. Siksi
dynamiikkaa ei ole mielekästä mitata mittaamalla vaaleissa
kohdissa esiintyvää kohinaa.

>
> Täytyy muistaa myös, että filmiaikana monet kuvasivat dialle koska
> sen sävyt ja värit oli niin syviä ja kylläisiä. Tämä johtui tietenkin
> paljolti siitä, että dian karakteristinen käyrä on jyrkkä (eli
> dynaaminen alue kapea) ja projektorin kirkaimman ja tummiman sävyn
> ero yleensä suurempi kuin paperivedoksen päivän valossa. Näin
> kapea dynamiikka tallenteessa ja leveä esittäessä saattoi
> "parhaimmillaan" johtaa siihen, että kuvaa esitettäessä kontrasti
> oli suurempi kuin alkuperäisessä maisemassa.

On kyllä hiukan harhaanjohtavaa sanoa, että dialla dynamiikka
olisi tallenteessa kapea ja esittäessä leveä. Oleellistahan on,
että se on suunnilleen sama. Siis kelvollisella diafilmillä
kirkkauserot näkyvät esitettäessä suurin piirtein samanlaisina
kuin ne olivat luonnossa. (Toki jyrkkää filmiä käyttämällä
voidaan värejä hieman korostaa.)

Paperikuvassa sen sijaan dynamiikkaa on supistettu rajusti.
Se on tarpeen, koska paperilla ei kerta kaikkiaan pystytä
esittämään kuin hyvin kapea dynamiikka-alue. Negatiivifilmi
mappaa kohteen 12 aukon dynamiikka-alueen filmille
n. 7 aukon alueelle. Paperivedosta tehdessä sitä voidaan
supistaa vielä lisää. Ja painokuvassa dynamiikka jää vieläkin
suppeammaksi.

Kts. esim.
http://www.nikkemedia.fi/ivailu/nettikurssit/valokuvailmaisu/kasitteet/valotusvara/karatrestiset%20kurvit.htm

Sivu mennen, yksi syy miksi maalaus voi näyttää paremmalta
kuin valokuva, on se, että maalauksessa voi olla laajempi
dynamiikka-alue.

--
Pauli

Timo

unread,
Jun 13, 2006, 4:33:06 PM6/13/06
to
On 2006-06-13, timo.au...@aim-dtp.net <timo.au...@aim-dtp.net> wrote:
> Tietoliikennetekniikan insinöörinä minulla on se merkittävä etu
> puolellani että kykenen katsomaan sovellusta laajemmin, kattavammin,
> kun pelkästään yhden osa-alueen (mittaus) kannalta.

\(^o^)/

> Hyvä kuvanlaatu on tärkeintä. Ja yli kaiken tärkein parametri sen
> saavuttamiseksi on laaja dynaaminen alue. Mielestäni esim 16 f/stoppia
> olisi jo varsin hyvä, mutta en panisi lainkaan pahakseni esim 32
> f/stoppia.

Eli värinegan kuvanlaatu on epäilemättä aina parmepi kuin dian, eikös
niin?

>> Käytännössä laaja dynaaminen alue olisi todennäköisesti pois
>> tällaisista ominaisuuksista ja aivan varmasti tilanne on tämä jos
>> kuvan värisyvyyttä (bittien määrää) ei lisätä.
>
> Ei ole. Tätä voit itsekin helposti testata/arvioida, pudota "kamalan"
> suurigamuttien 'CIE 1932 D65 gamma 1.0' RGB työtila minun saitilta
> http://www.aim-dtp.net/aim/download/aim_profiles.zip ja vertaile sitten

No tarkoitin lähinnä sensorin mittauskykyyn liittyviä ominaisuuksia, en
sensorin ulostulon tallentamisessa käytettyä koodausta.

Edelleen, on ihan turha jakaa sellaisia absoluuttisia totuuksia kuin
"aina kannattaa käyttää laajinta mahdollista väriavaruutta", kun tuo
ihan aikuisten oikeasti riippuu tilanteesta. Laajemman värialueen käytöstä
ei ole kun haittaa, jos ei oikeati aio käyttää mitään niistä sävyistä.

On kyllä varmaan totta, että hieman laajemman värilueen käyttöstä johtuva
sävyresoluution katoaminen ei käytännössä yleensä paljaalle silmälle
juuri näy. On myös totta, että laajempi värialue antaa mahdollisuuden säätää
värejä hieman enemmän. Ei kuitenkaan ole totta, että absoluuttisesti
aina kannattaisi valita laajin mahdollinen värialue.

> Eivät alkuunkaan tee noin vaan auto-viimeistelevät
> _kuvaruutunäyttöä_ varten. Ja tarkemmin, vieläkin on niin että tuo
> optimointi on lähempänä Mac:n AppleRGB:tä kuin esim sadRGB:tä.

Kenties olet oikeassa. En oikeastaan tiedä miten kamerat kuvansa
optimoivat, kun en sellaisia valmista, mutta uskon, että isolle osalle
turistinäpsijöistä on tärkeää vain, että muistikortin voi kiikuttaa
digilabraan ja käteen saadaan näyttävät kymppikuvat.

--
Timo

Mikko Tapani Reinikainen

unread,
Jun 13, 2006, 4:54:30 PM6/13/06
to
In article <1150179140.0...@i40g2000cwc.googlegroups.com>,

<timo.au...@aim-dtp.net> wrote:
>Digitaalisen kuvan kannalta 8-bit/c on harmaaskaalan osalta nipin napin
>riittävä, harmaan eri tasoja on vain 256 kpl.

Niinpä, joten bittejä ei kannata tuhlata ylisuuren dynaamisen alueen
tallentamiseen.

Jos pääkohteen sävyala on vaikkapa noin neljä aukkoa, ja kameran
dynaaminen alue on kahdeksan aukkoa, voi kamera käyttää kohteen
harmaaskaalan koodaamiseen sävyarvoja 128..255, eli
harmaasävyresoluutiota on vielä noin seitsemän bittiä.

Saman pääkohteen tallentamiseen kamera, jolla on kuudentoista aukon
dynaaminen alue, joutuu koodaamaan saman kohteen harmaaskaalan
pienemmällä joukolla sävyarvoja (esimerkiksi 192..255), jolloin
harmaasävyresoluutio on vain kuusi bittiä.

Sama resoluutio-ongelma koskee väriavaruutta. Koska sRGB-väriavaruuden
värit riittävät tarvittavien värien koodaamiseen, ei laajemman
väriavaruuden värejä hyödynnetä mitenkään, mutta väriresoluutio
heikkenee, kun suurin osa 16 miljoonasta väristä on käyttämättömänä.

- Mikko Reinikainen

Mikko Tapani Reinikainen

unread,
Jun 13, 2006, 4:59:57 PM6/13/06
to
In article <1150216114.9...@i40g2000cwc.googlegroups.com>,

paul...@yahoo.com <paul...@yahoo.com> wrote:
>Sivu mennen, yksi syy miksi maalaus voi näyttää paremmalta
>kuin valokuva, on se, että maalauksessa voi olla laajempi
>dynamiikka-alue.

Maalauksessa on myös paljon helpompi huijata silmää liioittelemalla
paikallisia kontrasteja ilman että lopputulos näyttää luonnottomalla.

Esimerkiksi vaaleiden kasvojen takana oleva pensas voi "sattumalta"
olla maalauksessa tummempi kuin todellisuudessa, jolloin kasvot
hyppäävät taustasta.

- Mikko Reinikainen

Timo

unread,
Jun 13, 2006, 5:03:51 PM6/13/06
to
On 2006-06-13, paul...@yahoo.com <paul...@yahoo.com> wrote:
> Aivan. Oleellista on nimenomaan tummien ja vaaleiden, vielä
> erottuvien kohteiden välinen kirkkausero. Ei se, miten pienet
> kirkkauserot siinä vaalealla alueella voidaan erottaa. Siksi
> dynamiikkaa ei ole mielekästä mitata mittaamalla vaaleissa
> kohdissa esiintyvää kohinaa.

No joo, ehkä filmien tapauksessa tilanne määritelmämielessä on
tuo. Valokuvaajan ja hyvän kuvan vinkkelistä on kuitenkin tärkeätä,
että myös yksityiskohdat erottuu hyvin. Näkyyhän se ladon seinä
siinä kuvassa aina (mustana), mutta kun ei ne yksityiskohdat siitä
ladon seinästä.

Filmien tapauksessa tuo tulee ikäänkuin "ilmaiseksi", koska filmi
analogisen luonteesta puolesta käyttäytyy aina jatkuvasti.
Digillä voisi ilkeämielinen feikata hurjalta kuulostavan dynaamisen
alueen lisäämällä yhden hullun kirkkaan sävyn mukaan, mutta siitä
seuraavaksi himmeämpi erottuva sävy olisi monta kymmentä aukkoa
tummempi.

Näistä syistä kuitenkin mielestäni tuon dynaamisen alueen henkeen
kuuluu se, että kirkkaassa ja tummassa päässä täytyy myös
erottua yksityiskohdat. Vaikka, totta on että sitä ei tuossa
karakteristisen käyrän kautta tehdyssä määritelmässä eksplisiittisesti
tuoda esille.

Mutta kenties digien tapauksessa ei olekaan mielekästä yrittää
yhdistää tuota yksityiskohtien erottumista dynaamisen alueen käsitteeseen,
vaan johonkin suureeseen joka mittaa sävyerottelun tarkkuutta sävyalueen
ääripäissä. Tämä onkin vain yksi syy lisää, miksi dynaaminen aluekaan ei
ole suure jonka perässä kannattaa juosta kamerakaupoissa.

> On kyllä hiukan harhaanjohtavaa sanoa, että dialla dynamiikka
> olisi tallenteessa kapea ja esittäessä leveä. Oleellistahan on,

> Paperikuvassa sen sijaan dynamiikkaa on supistettu rajusti.


> Se on tarpeen, koska paperilla ei kerta kaikkiaan pystytä
> esittämään kuin hyvin kapea dynamiikka-alue. Negatiivifilmi
> mappaa kohteen 12 aukon dynamiikka-alueen filmille

No siis juuri tätä oikeastaan tarkoitin, että suhteessa negaan ja
paperivedokseen on dia vastaavasti tallentaessa kapea ja esitettäessä
leveä.

--
Timo

Mikko Tapani Reinikainen

unread,
Jun 13, 2006, 5:09:15 PM6/13/06
to
In article <Pvijg.2008$Ib6...@reader1.news.jippii.net>,

Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> > Miksi vouhkaat suu vaahdosssa sellaisesta
> > asiasta, josta et ymmärrä mitään?
>
>No kuule, olen tässä 10 vuotta opiskellut väriteoriaa, värinhallintaa
>sekä näköaistin toimintaa ja väsäsin siinä yhteydessä kasaan muun muassa
>ICC profilointiohjelman joka soveltuu kameroille ja skannereille:
- -

>Tietyntasoista ymmärrystä noiden kanssa on kaivattu.

Älä ole moksiskaan, koskaan ei ole liian myöhäistä ymmärtää asioita
paremmin. Toivottavasti sitä ymmärrystä karttuu näistä
keskusteluistakin.

>En jaksa oikoa sinun taysin perustelemattomia tuulesta temmattuja
>väitteistäsi joista kaikki messusi kokonaan koostuvat.

Jos et julkisesti halua puida omien väitteittesi kanssa kiusallisesti
ristiriidassa olevia väitteitä, niin suosittelen että kuitenkin omassa
rauhassa kävisit ne vielä avoimin mielin läpi ja miettisit, josko
niissä sittenkin voisi olla jotain perää.

- Mikko Reinikainen

Mikko Tapani Reinikainen

unread,
Jun 13, 2006, 5:15:03 PM6/13/06
to
In article <lNkjg.2092$9h....@reader1.news.jippii.net>,

Timo Autiokari <timo.au...@aim-dtp.net> wrote:
>Oletuksena oli että käytössä on 16-bit/c moodi mutta unohdin mainita
>siitä. Unohdin varmaankin siksi ettei se ole kovin oleellinen seikka.

Kamerassa tämä ei ole mahdollista. Siellä käytössä on joko 8 bit/c
JPEG tai kameran oma luokkaa 12 bit/c RAW.

Kahdeksalla bitillä yhden bitin hukkaaminen käyttämättömiin laajemman
väriavaruuden sävyihin alkaa näkyä kuvassa viimeistään jos sitä
jälkikäsitellään.

- Mikko Reinikainen

Timo Autiokari

unread,
Jun 14, 2006, 12:55:03 PM6/14/06
to
Timo wrote:

> Eli värinegan kuvanlaatu on epäilemättä aina

> paremepi kuin dian, eikös niin?

Ei oleenkaan, koska värinega ei omaa mitaan järjellistä kuvanlaatua, se
ei siis ole kuva vaan vain yksi välivaihe joka ko porsessissa tarvitaan
kuvan valmistamiseksi.

Mutta värinegalla on dynaaminen alue, luokkaa 10 f/stoppia. Paperille
perinteisesti valottamalla siitä saadaan käyttöön vain ehkä viitisen
stoppia. Erittäin korkealuokkaisella skannerilla (ja tässä oikeasti
tarvitaan todella korkealuokkainen skanneri koska nuo 10 f/stoppia ovat
tajuttoman rankasti kompressoituna negalla) saadaan digitoitua lähes
kaikki negan tallentama kuvainfo ja sitten muokattua se paperin about
7,5 ... 8 f/stopin dynaamisella aluelle ja saadaan siten kuvalle aikaan,
tuohon perinteiseen menetelmään verrattuna, paljon luonnollisempi toisto.

> No tarkoitin lähinnä sensorin mittauskykyyn liittyviä ominaisuuksia,
> en sensorin ulostulon tallentamisessa käytettyä koodausta.

Kameran suuri dynamiikka on _aina_ ainoastaan eduksi. En ymmärrä miten
päädyt siihen käsitykseen että siitä olisi jotain haittaa.

Esim tapauksissa:

1) sensorin dynamiikka olisi vaikkapa muikeat 16 f/stoppia ja se
digitoidaan 12 bittiin

2) sensorin dynamiikka olisi 12 f/stoppia ja se digitoidaan 12 bittiin

ei ole mitään muuta eroa kuin että tapauksessa (2) kuvassa on rankasti
enemmän kohinaa.

> Edelleen, on ihan turha jakaa sellaisia absoluuttisia totuuksia kuin
> "aina kannattaa käyttää laajinta mahdollista väriavaruutta", kun tuo
> ihan aikuisten oikeasti riippuu tilanteesta.

Tämän threadin otsikko on: "Mistä johtuu ongelma kontrastierojen
kanssa?". Yksi, joskaan ei suurin, ko ongelman aiheuttajista on pieni
gamutti. Se on sitä kautta ongelma että pienessä gamutissa kirkkaat ja
merkittävästi saturoituneet värit (kuten taivaan sini) leikkautuvat
aiemmin kuin suuressa gamutissa joten kun halutaan taivaan sini pitää
leikkautumatta pienessä gamutissa niin valotusta on pienennettävä
verrattuna siihen valotukseen joka voidaan tehdä kun käytössä on suuri
gamutti. Ja se pienempi valotus sitten pienentää ko scenestä tallentuvaa
kokonaisdynamiikka (on vähemmän kuvadataa tallessa tummassa päässä).

> Laajemman värialueen käytöstä ei ole kun haittaa, jos ei oikeasti aio
> käyttää mitään niistä sävyistä.

Jos nyt kumminkin pysyttäisiin edes hehtaarilleen aiheessa.

Alkuperäinen kysymys oli että: "miksi kameralla ei millään saa oikein
valottunutta kuvaa tilanteessa, jossa kuvassa on hyvin suuria
kontrastieroja".

Yksi seikka joka vaikuttaa tuohon suuntaan on pieni gamutti.

Ja vastauksena alkuperäiseen kysymykseen on että: Absoluuttisen aina
kannattaa käyttää suurinta tarjolla olevaa gamuttia. Siitä seuraa että
valotus voidaan säätää suurimmaksi mahdolliseksi ja se puolestaan
vaikuttaa sitten siihen suuntaan että saadaan oikeammin valottunut kuva.
Tosin ei täydellisen oikea kuva koska näköaistin paikallinen adaptaatio
vaikuttaa tässä eniten.

> uskon, että isolle osalle turistinäpsijöistä on tärkeää vain,
> että muistikortin voi kiikuttaa digilabraan ja käteen saadaan
> näyttävät kymppikuvat.

Niinhän he saavatkin, tulostimien automaattisäätöjen ansiosta.

Timo Autiokari

Timo

unread,
Jun 15, 2006, 12:43:10 AM6/15/06
to
On 2006-06-14, Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> Esim tapauksissa:
>
> 1) sensorin dynamiikka olisi vaikkapa muikeat 16 f/stoppia ja se
> digitoidaan 12 bittiin
>
> 2) sensorin dynamiikka olisi 12 f/stoppia ja se digitoidaan 12 bittiin
>
> ei ole mitään muuta eroa kuin että tapauksessa (2) kuvassa on rankasti
> enemmän kohinaa.

Mitä kohinaa? Oletan tästä eteenpäin, että kuvattavan kohteen kirkkaudet
mahtuu 12 aukon alueelle. Tällöin ainakin kvantisointikohinaa on juurikin
tapauksessa 1 enemmän (esim.
http://matwww.ee.tut.fi/hypmed/ryhma12/DigiAani/d12.html).

En tiedä kennojen elektroniikasta kovinkaan paljon, mutta jotenkin
tuntuu käänteiseltä että jonkin mittari mittaisi tarkemmin samalla kun
mittausaluetta laajennetaan ja täytyy sanoa, että tässä kohtaa uskon sitä
mittaustekniikan insinööriä, joka aikaisemmin tässä säikeessä vahvisiti
käsitykseni juuri päinvastaisesta. Tämän mukaan siis myös muuta
virhettä on nimenomaan tapauksessa 1 enemmän.

--
Timo

paul...@yahoo.com

unread,
Jun 15, 2006, 4:33:12 AM6/15/06
to
Timo Autiokari kirjoitti:

>
> Kameran suuri dynamiikka on _aina_ ainoastaan eduksi. En ymmärrä miten
> päädyt siihen käsitykseen että siitä olisi jotain haittaa.

Juuri ymmärryksen puute on sinun ongelmasi.

>
> Esim tapauksissa:
>
> 1) sensorin dynamiikka olisi vaikkapa muikeat 16 f/stoppia ja se
> digitoidaan 12 bittiin
>
> 2) sensorin dynamiikka olisi 12 f/stoppia ja se digitoidaan 12 bittiin
>
> ei ole mitään muuta eroa kuin että tapauksessa (2) kuvassa on rankasti
> enemmän kohinaa.

Käännät asian päälaelleen. Tuossahan *ei* ole kysymys siitä,
että mitatessa käytettäisiin laajempaa mittausaluetta kuin mitä
kennosta tulee ulos, vaan päin vastoin siitä, että käytetään
*kapeampaa* mittausaluetta kuin kennolta tulee ulos.

Jos kennolta saadaan ulos 16 f/stopin dynamiikka, ja siitä
luetaan vain 12 f/stopin alue, niin sehän on *kapeampi*
mittausalue. Sinä kuitenkin halusit käyttää *laajempaa*
mittausaluetta kuin mitattavissa olevassa signaalissa on.

Tämä tarkoittaisi sitä, että jos kennon dynamiikka on 12 stoppia,
säätäisit 12-bittisen A/D muuntimen mittaamaan 16 stopin suuruista
aluetta, josta sitten vain 1/16 sisältäisi informaatiota.
Samaan tulokseen pääset myös, jos skaalaat jälkikäteen
normaalisti mitatun 12-bitin mittausalueen laajempaan dynamiikkaan
niin, että mitattua arvoa 0 vastaisi tiedostossa arvo 1920 ja
mitattua arvoa 4095 vastaisi arvo 2175. Kun tämä sitten
muunnetaan gammaan 2.2 ja 8-bittiseksi, niin kaikki talletetut
luvut olisivat välillä 49 - 63. Aika karkea resoluutio.

Aivan sama pätee myös gamutiin. Jos kennolta saatavat arvot
puristetaan tallennettaessa käytettävissä olevan lukualueen
murto-osaan, niin tarkkuus heikkenee. Laajempaan gamutiin
muunnoshan tarkoittaa sitä, että R, G ja B kanavien arvot
muutetaan lähemmäksi toisiaan. On syytä ymmärtää, että tämä
muunnos tapahtuu jälkikäteen. AdobeRGB:n valinta
tallennusmuodoksi ei millään tavalla muuta itse kennon
ominaisuuksia eikä sitten tuo mukaan uusia sävyjä tälle
laajemmalle sävyalueelle, vaan ainoastaan puristaa
olemassaolevat sävyt pienemmälle lukualueelle.


> Tämän threadin otsikko on: "Mistä johtuu ongelma kontrastierojen
> kanssa?". Yksi, joskaan ei suurin, ko ongelman aiheuttajista on pieni
> gamutti. Se on sitä kautta ongelma että pienessä gamutissa kirkkaat ja
> merkittävästi saturoituneet värit (kuten taivaan sini) leikkautuvat
> aiemmin kuin suuressa gamutissa joten kun halutaan taivaan sini pitää
> leikkautumatta pienessä gamutissa niin valotusta on pienennettävä
> verrattuna siihen valotukseen joka voidaan tehdä kun käytössä on suuri
> gamutti. Ja se pienempi valotus sitten pienentää ko scenestä tallentuvaa
> kokonaisdynamiikka (on vähemmän kuvadataa tallessa tummassa päässä).

Jälleen täysin perätön, tuulesta temmattu väite.

Digikuvan kapea dynamiikka johtuu *kennon* kapeasta dynamiikasta.
Taivaan sini leikkautuu, koska sensorin siniset pikselit ovat
saturaatiossa. Kirkkauden kasvaessa sinisen värin määrä ei siis
voi enää lisääntyä. Muiden värien määrä voi lisääntyä,
kunnes nekin ovat tapissa. Tällöin taivas näkyy valkoisena eli
on 'puhki palanut'. Tämä ei muutu miksikään vaikka kuva
jälkikäteen muutettaisiin laajempaan gamutiin.

> Ja vastauksena alkuperäiseen kysymykseen on että: Absoluuttisen aina
> kannattaa käyttää suurinta tarjolla olevaa gamuttia. Siitä seuraa että
> valotus voidaan säätää suurimmaksi mahdolliseksi ja se puolestaan
> vaikuttaa sitten siihen suuntaan että saadaan oikeammin valottunut kuva.

Ja sitten oikea vastaus: gamut ei vaikuta kameran dynamiikkaan.
Missään tapauksessa ei kannata muuntaa kuvaa kamerassa
laajempaan gamutiin, koska se vain huonontaa tarkkuutta.

--
Pauli

Mikko Tapani Reinikainen

unread,
Jun 15, 2006, 5:20:31 AM6/15/06
to
In article <1150360391.9...@i40g2000cwc.googlegroups.com>,

paul...@yahoo.com <paul...@yahoo.com> wrote:
>Jos kennolta saadaan ulos 16 f/stopin dynamiikka, ja siitä
>luetaan vain 12 f/stopin alue, niin sehän on *kapeampi*
>mittausalue. Sinä kuitenkin halusit käyttää *laajempaa*
>mittausaluetta kuin mitattavissa olevassa signaalissa on.
>
>Tämä tarkoittaisi sitä, että jos kennon dynamiikka on 12 stoppia,
>säätäisit 12-bittisen A/D muuntimen mittaamaan 16 stopin suuruista
>aluetta, josta sitten vain 1/16 sisältäisi informaatiota.

Toisin sanoen Autiokari virheellisesti kuvittelee, että kummankin
kennon A/D-muunnin tuottaisi tietyllä määrällä valoa saman
mittaustuloksen. Oikeasti A/D-muuntimien mittausalueet tietenkin
säädetään siten, että kummankin kennon kanssa muuntimelta voi tulla
arvoja 0..4095.

>Ja sitten oikea vastaus: gamut ei vaikuta kameran dynamiikkaan.
>Missään tapauksessa ei kannata muuntaa kuvaa kamerassa
>laajempaan gamutiin, koska se vain huonontaa tarkkuutta.

Niinpä.

- Mikko Reinikainen

paul...@yahoo.com

unread,
Jun 15, 2006, 5:41:55 AM6/15/06
to
Timo kirjoitti:

>
> Näistä syistä kuitenkin mielestäni tuon dynaamisen alueen henkeen
> kuuluu se, että kirkkaassa ja tummassa päässä täytyy myös
> erottua yksityiskohdat. Vaikka, totta on että sitä ei tuossa
> karakteristisen käyrän kautta tehdyssä määritelmässä eksplisiittisesti
> tuoda esille.

Oleellista on se, että ihmisen silmä *ei* erota niitä
pieniä kirkkauseroja siellä kirkkaassa päässä.
Ihminen voi hyvinkin erottaa kirkkaustasojen 1 ja 2
välisen eron, mutta ei tasojen 254 ja 255 välistä eroa
(lineaarisessa 8-bit skaalassa). Se on juuri yksi
syy siihen, että gammaa käytetään. (Toinen syy on se,
että kuvaputket ja kameraputket jo itsessään noudattavat
gammakäyrää, jossa gamma tyypillisesti on luokkaa 2.2).

Toinen seikka on se, että sielä kirkkaammassa päässä valon
itsensä aiheuttamaa kohinaa (pixel photon shot noise) on
enemmän kuin tummassa päässä (ja pimeässä se on 0).
Siksi kirkkaassa päässä mitattu kohina ei kerro mitään
siitä, miten tummia kohteita voidaan vielä erottaa.

--
Pauli

timo.au...@aim-dtp.net

unread,
Jun 15, 2006, 7:06:38 AM6/15/06
to
Timo wrote:

> Mitä kohinaa?

Poisson sekä dark-current kohinaa pääasiassa.

>Oletan tästä eteenpäin, että kuvattavan kohteen kirkkaudet
> mahtuu 12 aukon alueelle. Tällöin ainakin kvantisointikohinaa on juurikin
> tapauksessa 1 enemmän (esim.
> http://matwww.ee.tut.fi/hypmed/ryhma12/DigiAani/d12.html).

Nyt ymmärrän mitä ajat takaa. Mutta esim kameran kanssa meillä on
mahdollista valita miten otamme hyötykäyttöön suuremman dynaamisen
alueen.

Siis, on kaksi kameraa esim niin että kameralla A on 6 f/stoppia
dynaamista aluetta ja kameralla B on sitä 12 f/stoppia.

Sitten on jokin scene joka valotetaan niin ettei mitään scenestä
ylivalotu. Tässä tilanteessa kummatkin kamerat tuottavat _aivan_
samanlaisen kuvan koodauksen, eroa on vain se että kameran A kuvassa
on paljon enemmän kohinaa ja tietenkin kameran B kuvassa on 6
f/stoppia dynamiikkaa (siis hyvin tummaa kuvainformaatiota) enemmän
siellä tummassa päässä. Scene valkoinen mappautuu maximiin, -1EV
mappautuu tasan puoleen, -2EV mappautuu tasan neljäsosaan, -3EV
mappautuu tasan kahdeksasosaan jne kummallakin kameralla aivan samoin.
Ja kvantisointikohina on kummallakin sama. Digitointi ei muuta tätä
tilannetta koodauksen tai kvantisointikohinan kannalta mutta tietenkin
on niin että jos kummatkin digitoidaan vain 8-bitin A/D muuntimella
niin sensorilta saadut 3 tai 4 (riippuen miten A/D muuntimen pyöristys
on järjestetty) tumminta f/stoppia mappautuu koodille 0. Mutta
ajatellaan nyt selkeyden vuoksi että kummatkin digitoidaan vaikka
12-bitillä. Tässä siis otettiin se lisädynamiikka hyödyksi
tummassa päässä.

Usein on kuitenkin niin että scenessa on jotakin joka pitää
ylivalottaa jo kuvaa otettaessa. Jos kummallakin kameralla
ylivalotetaan saman verran niin tilanne on aivan sama kuin yllä.

Mutta jos kameralla A ylivalotetaan (jotta sillä saa edes
jonkinlaatuisen kuvan) mutta kameralla B ei ylivaloteta niin sitten
toki kuvainformaatio mappautuu koodeiksi erilailla ja kameran B koodaus
on tietenkin karheampi ja kvantisointikohina on suurempi. Mutta tässä
tilanteessa ollaan kuitenkin otettu etu siitä lisädynamiikasta, nyt
siis kirkkaassa päässä jota ei leikattu (tai leikattiin vähemmän).

Ilmeisesti sinä ajattelet sellaista yksinkertaista mittaustekniikaan
liittyvää seikkaa että esim 2 voltin jännitettä ei kannata mitata
yleismittarin 3000V mittausalueella koska 3 voltin mittausalue antaa
paljon tarkemman tuloksen. Päivänselvä fakta. Mutta ei ole lainkaan
kelvollinen analogia digikuvaukseen koska valokuvauksessa aina
pyritään siihen että signaali jossakin päin kuva-aluetta on melko
lailla mittausalueen maksimissa (jos ei ylikin). Jos kameralle ja
volttimittarille yrittäisi rakentaa analogiaa niin pitää ottaa esim
6 miljoonaa volttimittaria joilla mittausalue on kaikille sama. Siten
on 6 miljoonaa yhtäaikaista mitattavaa jännitettä jotka voivat
vapaasti vaihdella nollasta maximiin.

Tuosta kvantisointikohinasta (digikuvauksessa) ei muuten kannata
vatsahaavaa kehittää vielä vuosikymmeniin sillä jopa 8-bit
koodauksessa kvantisointikohina on aivan pikkuriikkinen kaikkiin muihin
(lähinnä kuvailmaisimen tuottamiin tai siitä johtuviin) kohinoihin
verrattuna.

Timo Autiokari

Timo

unread,
Jun 15, 2006, 10:58:05 AM6/15/06
to
On 2006-06-15, timo.au...@aim-dtp.net <timo.au...@aim-dtp.net> wrote:
> Nyt ymmärrän mitä ajat takaa. Mutta esim kameran kanssa meillä on
> mahdollista valita miten otamme hyötykäyttöön suuremman dynaamisen
> alueen.
>
> Siis, on kaksi kameraa esim niin että kameralla A on 6 f/stoppia
> dynaamista aluetta ja kameralla B on sitä 12 f/stoppia.
>
> Sitten on jokin scene joka valotetaan niin ettei mitään scenestä
> ylivalotu. Tässä tilanteessa kummatkin kamerat tuottavat _aivan_
> samanlaisen kuvan koodauksen, eroa on vain se että kameran A kuvassa
> on paljon enemmän kohinaa ja tietenkin kameran B kuvassa on 6
> f/stoppia dynamiikkaa (siis hyvin tummaa kuvainformaatiota) enemmän
> siellä tummassa päässä. Scene valkoinen mappautuu maximiin, -1EV
> mappautuu tasan puoleen, -2EV mappautuu tasan neljäsosaan, -3EV
> mappautuu tasan kahdeksasosaan jne kummallakin kameralla aivan samoin.
> Ja kvantisointikohina on kummallakin sama. Digitointi ei muuta tätä
> tilannetta koodauksen tai kvantisointikohinan kannalta mutta tietenkin
> on niin että jos kummatkin digitoidaan vain 8-bitin A/D muuntimella
> niin sensorilta saadut 3 tai 4 (riippuen miten A/D muuntimen pyöristys
> on järjestetty) tumminta f/stoppia mappautuu koodille 0. Mutta
> ajatellaan nyt selkeyden vuoksi että kummatkin digitoidaan vaikka
> 12-bitillä. Tässä siis otettiin se lisädynamiikka hyödyksi
> tummassa päässä.


Mutta jos tumma pää näin mätetään roskiin digitoinnissa, niin käyttäjähän
ei näe mitään dynaamisen alueen kasvua. Erityisesti se tumman ladon
seinä ja taivaan pilvet ei "mahdu" samaan kuvaan edelleenkään. Tuo
lisää dynamiikkaa ja lisää bittejä tilanne onkin sitten ihan OK.
Tosin jotta kuvat näyttäisivät näytöltä järkevältä, katseluohjelmat
pitäisi tehdä niin, että nuo lisätyt bitit mätetään kuitenkin menemään,
sen sijaan että informaatio litistettäisiin näytön dynamiikan mukaiseksi.

Käytännön ongelma dynamiikan lisäämisessä oli kuitenkin kuulemma
(aikaisemmin tässä säikeessä) herkkyyden laskeminen. Tämä onkin
luonnollista ja hyvin linjassa sen kanssa, että kohina pienenee
kun herkkyys laskee.

Ymmärrän siis toisaalta myös mitä sinä tarkoitat. Tarkoittanet, että
jos kenno kerran pystyy erottelemaan 12 f/stoppia, niin kohinan on pakko
olla 12 f/stoppia maksimivalkoista heikompaa tai muuten se tumma pää
jonka väitetään vielä olevan luettavissa hukkuisi kohinaan. Tämä lienee
mistä se "suuri signaali pienen signaalin päällä"-määritelmä kimpoaa.
Näillä määritelmillä ja kun digitointi suoritetaan tumma pää mäkeen
heittäen, ymärrän väitteen, että mitä enemmän dynamiikkaa, sitä parempi
laatu kuvissa.

--
Timo

Timo Autiokari

unread,
Jun 15, 2006, 12:49:27 PM6/15/06
to
Timo wrote:

> Mutta jos tumma pää näin mätetään roskiin digitoinnissa, niin
> käyttäjähän ei näe mitään dynaamisen alueen kasvua. Erityisesti se
> tumman ladon seinä ja taivaan pilvet ei "mahdu" samaan kuvaan
> edelleenkään.

Mainitsin tuon 8-bit A/D muunnoksen vain siksi että sain sinut heräämään
ajattelemaan tätä asiaa riittävän laajasti ja onnistuinkin siinä.

8-bit muunnosta ei käytännössä tietenkään koskaan tehdä silloin kun
sensorilla on enemmän kuin 8 stoppia dynamiikka tarjolla vaan
digitoidaan 10, 12, tai jopa 14 bitillä ja sitten mikäli data otetaan
8-bit/c:nä ulos niin digitoitu data ensin rutataan (kompressoidaan)
gammalla ja sitten leikataan 8-bittiin. Ei olemassa olevaa dynamiikkaa
(vain sensori määrää sen) koskaan roskiin mätetä.

> Käytännön ongelma dynamiikan lisäämisessä oli kuitenkin kuulemma
> (aikaisemmin tässä säikeessä) herkkyyden laskeminen. Tämä onkin
> luonnollista ja hyvin linjassa sen kanssa, että kohina pienenee
> kun herkkyys laskee.

Ei herkkyys mihinkään laske jos sensorin yksittäisten elementtien
("pixelien") pinta-alaa kasvatetaan vaaditussa suhteessa.

> Tarkoittanet, että jos kenno kerran pystyy erottelemaan 12 f/stoppia,
> niin kohinan on pakko olla 12 f/stoppia maksimivalkoista heikompaa tai
> muuten se tumma pää jonka väitetään vielä olevan luettavissa hukkuisi
> kohinaan.

Nimenomaan.

> Tämä lienee mistä se "suuri signaali pienen signaalin
> päällä"-määritelmä kimpoaa.

Digikameroissa ei ole suurta signaalia pienen signaalin päällä. Vaan
jokaisella "pixelillä" on signaali jonka "päällä" (sekä "alla") on
erilaisia kohinoita. Pieniä ja suuria signaaleita voi kamerassa
yhtäaikaisesti olla vain eri pixeleillä.

> Näillä määritelmillä ja kun digitointi suoritetaan tumma pää mäkeen
> heittäen, ymärrän väitteen, että mitä enemmän dynamiikkaa, sitä
> parempi laatu kuvissa.

Ei sitä dynamiikkaa heitetä mäkeen vaan kompressoidaan jos on tarvis.

Siis, mitä enemmän kameralla on dynamiikkaa niin 1) sitä parempi sen
kuvanlaatu aina on ja 2) sen enemmän kuvainformaatiota on käyttävissä
aina, josta voidaan muokkaamalla saada mm aikaan kuva (ruudulle tai
tulosteeksi) joka paremmin vastaa sitä miten näköaisti kohteen koki ja
3) sen vähemmän kuvissa on kohinaa aina ja 4) suuresta dynamiikasta voi
toisinaan helposti luovuttaa osan johonkin muuhun tarpeeseeen, esim ei
tarvitse niin pilkulleen yrittää valottaa oikein kun muutaman stopin
alivalotuskin vielä tuottaa hyvän lopputuloksen ja 5) suuresta
dynamiikasta ei koskaan ole mitään haittaa.

Käytännössä, kun pidetään digikamera sellaisena kuin sen tunnemme,
dynaamista aluetta saadaan merkittävästi lisää ainoastaan kasvattamalla
"pixelien" pinta-alaa (ja tekemällä ne optiset muutokset jota siitä
sitten seuraa). Tähän ei tässä maailmankaikkeudessa vallitsevien
fysiikan lakien alla voi koskaan tulla mitään muutosta / parannusta /
uutta keksintöä sillä rajoittavana tekijänä on valon kvanttiluonne.

Mutta jos muutamme hieman käsitettä -kamera-, esim tekemällä siihen yksi
muutos siten että sen nimellisherkkyys onkin 100 ASA:n sijaan 0,39 ASA
niin sitten on mahdollista valmistaa kuvailmaisin (käyttäen samaa
pixelin pinta-alaa kuin 100 ASA kamerassa on) joka omaa 8 stoppia
suuremman dynamiikan kuin mitä tuo 100 ASA:n lähtökohta-kamera omaa.

Parhaiden nykykameroiden dynamiikka on nipin napin 9 stoppia ja se
digitoidaan yleensä 12-bitin A/D muuntimella. Kameravalmistajavat vain
unohtavat mainoksissa ja spekseissa mainita että nämä muuntimet ovat
erittäin suurinopeuksisia flash-muuntimia joiden tarkkuus on paljon
huonompi kuin se entisajan tuttu 0,5 LSB joka A/D muuntimille on totuttu
näkemään ja vaatimaan. 12-bittinen flash-muunnin muuntaa tyypillisesti
noin 10-bit tarkkuudella.

Timo Autokari

Timo

unread,
Jun 15, 2006, 1:58:26 PM6/15/06
to
On 2006-06-15, Timo Autiokari <timo.au...@aim-dtp.net> wrote:
> > Tämä lienee mistä se "suuri signaali pienen signaalin
> > päällä"-määritelmä kimpoaa.
>
> Digikameroissa ei ole suurta signaalia pienen signaalin päällä. Vaan
> jokaisella "pixelillä" on signaali jonka "päällä" (sekä "alla") on
> erilaisia kohinoita. Pieniä ja suuria signaaleita voi kamerassa
> yhtäaikaisesti olla vain eri pixeleillä.

Siis _periaateessahan_ käsitetasolla kohinalla ja dynaamisella alueella
(niinkun se valokuvaan liittyy) ei ole pakko olla mitään tekemistä
keskenään. Esim. jos kohina olisikin luonteeltaan multiplikatiivista,
niin laaja dynaaminen alue ei implikoisi kohinasta mitään. Kun ajatellaan
että tuo tumman pään erottelukyky heijastuu myös kirkkaan pään
erottelukykykyyn, niin nimenomaan vaaditaan että pienin havaittava
signaali on sama kuin pienin havaittava ero kahden kirkkaan signaalin
välillä. Voi siis puhua vaikka "pienistä signaaleista isojen päällä".

> Siis, mitä enemmän kameralla on dynamiikkaa niin 1) sitä parempi sen
> kuvanlaatu aina on ja 2) sen enemmän kuvainformaatiota on käyttävissä
> aina, josta voidaan muokkaamalla saada mm aikaan kuva (ruudulle tai

Voin uskoa, että tilanne on tuo nykyteknologialla. Käsitetasolla, jos
dynamiikka on vain saturaatiopisteen ja ensimmäisen vasteen antavan
pisteen välinen kirkkausero, eikä oleteta että sensorin erottelukyky
tummassa päässä implikoi jotain kirkkaan pään erottelukyvystä, niin
dynamiikkahan ei kerro paljon mitään kuvanlaadusta eikä välttämättä
edes kuvainformaation määrästä.

Oletetaan jokin hypoteettinen käsittellinen sensori, joka pystyisi vain
erottamaan onko krikkaus suurempi kuin 1,256 vai 2^100. Tällainen sensori
tuon em. dynaamisen alueen määritelmän mukaan omaisi hullun dynaamisen
alueen, kun taas sensori joka erottaisi 1,2,3,4,5,....,256 verrattain
pienen. Kuitenkaan kukaan ei voi pokkana väittää, että ensimmäinen
järjestelmä tarjoaisi paremman kuvanlaadun tai enemmän informaatiota.

--
Timo

0 new messages