Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

Photographie 3D

1 view
Skip to first unread message

Richard Hachel

unread,
Jul 9, 2021, 8:06:46 AM7/9/21
to
Bonjour, je vois de plus en plus de photos 3D sur les forums.

Comment ça marche?

L'appareil prend plusieurs angles en même temps?

R.H.

ro...@pla.net.invalid

unread,
Aug 4, 2021, 10:53:53 AM8/4/21
to
de nos jour pas mal de smartphones sont équipés de 2 voire 3 objectifs,
donc ça marche tout seul (d'autant qu'il y a maintenant les formats pour ).

maintenant avec 2 prises de vues distantes, il y a toujours moyen
d'encoder ça a posteriori.


--

Fabrice

Richard Hachel

unread,
Aug 4, 2021, 11:05:34 AM8/4/21
to
Théoriquement, il faut quatre objectifs, non?

Il faut bien aller de droite à gauche et de haut en bas (quatre coins).

Je sais pas.

D'un autre côté, même si c'est pas mal, ça apporte quand même moins
que l'invention de la couleur, et de la pixellisation en Mo.

R.H.

robby

unread,
Aug 5, 2021, 1:14:10 AM8/5/21
to
Le 04/08/2021 à 17:05, Richard Hachel a écrit :
> Théoriquement, il faut quatre objectifs, non?
avec une paire stéréo ( comme tes yeux ) on fait déjà beaucoup de
choses, même s'il reste des cas particuliers ( zones sans info si on met
la caméra vers là, et d'ailleurs ça se voit sur pas mal de ces images,
meme si c'est masqué par le fait qu'on reprojette l'image sur le 3D
possiblement faux. tu notera que dans ces images la camera de visu bouge
tres peu).
C'est comme ça qu'on fait la photogrammétrie aérienne donnant le relief
des terrains.

Stricto sensu pour couvrir l'autre direction, il faut a minima le
simplex couvrant la dimension supplémentaire, donc juste une 3 eme vue
decalée dans l'autre axe.

note que meme la, il reste de toutes façons des zones 3D non vues, donc
si tu laisse la camera de visu totalement libre tu tombera forcément sur
des trucs non définis.
Pour les captures de 3D ou de mouvement a usage ciné et autres, on
utilise plein de caméras, à pleins d'endroits de la salle.


> D'un autre côté, même si c'est pas mal, ça apporte quand même moins
> que l'invention de la couleur
ça depend pour quoi.  un visage est une forme très simple, et de toute
façon on l'intuite déjà a fond.

Par contre de la montagne ou le détail du feuillage d'un arbre a
enormement de variations de relief a plein d'echelles, tout en etant
souvent peu varié en chrominance.


> et de la pixellisation en Mo.

pas compris. tu parles de résolution ?

si c'est le cas, alors je dirais qu'on est coincé dans le marketing
stérile de pousser les mega pixels inutiles,
alors que le vrai probleme des photos numériques c'est le manque de
dynamique ( peu de bits par couleur: l'ombre est vite toute noire et
l'éclairé tout blanc ). Le HDR reste balbutiant et produit avec des
inconvénients ( via composition de photos successives a expositions
différentes ).

--
Fabrice

Richard Hachel

unread,
Aug 5, 2021, 5:59:00 AM8/5/21
to
Le 05/08/2021 à 07:14, robby a écrit :

> si c'est le cas, alors je dirais qu'on est coincé dans le marketing
> stérile de pousser les mega pixels inutiles,

Oui, c'est ce que je disais déjà, il y a de nombreuses anées.

C'est débile de pousser le marketting aux pixels.

Souvent d'ailleurs pour être obligé de mettre ses photos sur Facebook
en 350*450 au mieux.

Par contre, ce que je rechercherais plutôt, si j'étais photographe,
c'est la sensibilité des prises.

Pouvoir photographier très vite (coureurs cyclistes par exemple) ou
très bien (intérieur de maison, crépuscule).

Ca oui, évidemment.

Les pixels... bofff... Je vois pas trop l'intérêt d'avoir 18 millions
de pixels avec par exemple une sensibilité limitée à 100 Iso à cause
du bruit.

Donc oui, je suis tout à fait d'accord.

J'ai un petit appareil que j'ai réglé sur 1 Mégapixel, et il me suffit
déjà largement.

Ce qui m'ennuie, c'est plutôt le bruit qui apparait dès qu'on
photographie en atmosphère très sombre.

La course à la bonne sensibilté ma parait donc beaucoup plus importante
que celle aux pixels (très largement dépassée et rendue inutile avec la
technologie actuelle).

R.H.

Julien Arlandis

unread,
Aug 11, 2021, 1:56:28 AM8/11/21
to
Je suppose que tu parles des photos 3D sur facebook?
Tu peux le faire avec n'importe quelle image, il ne s'agit que d'un
algorithme facebook qui découpe détecte et détoure les plans de l'image
pour leur appliquer séparément des transformations géométriques afin
de donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
même technique est utilisée dans les documentaires télé pour donner de
la profondeur à un tableau ou à une photo d'époque. Un exemple ici :

<http://youtu.be/1DZuVLbroM0>


Pour créer une image 3D sur Facebook, il faut passer par l'application
Facebook sur un smartphone :
https://fr-fr.facebook.com/help/android-app/414295416095269

Je viens de vérifier que ça fonctionne avec n'importe quelle photo prise
au hasard pourvu qu'il y ait du contraste entre les différents plans.

Julien Arlandis

unread,
Aug 11, 2021, 2:03:29 AM8/11/21
to

Richard Hachel

unread,
Aug 11, 2021, 6:40:45 AM8/11/21
to
Le 11/08/2021 à 07:56, Julien Arlandis a écrit :
On n'arrête pas le progrès.

R.H.

robby

unread,
Aug 13, 2021, 11:21:01 AM8/13/21
to
Le 11/08/2021 à 08:03, Julien Arlandis a écrit :
> Le 11/08/2021 à 07:56, Julien Arlandis a écrit :
>> Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
>> avec n'importe quelle image, il ne s'agit que d'un algorithme
>> facebook qui découpe détecte et détoure les plans de l'image pour
>> leur appliquer séparément des transformations géométriques afin de
>> donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
>> même technique est utilisée dans les documentaires télé pour donner
>> de la profondeur à un tableau ou à une photo d'époque. Un exemple ici :
>>
> <http://youtu.be/1DZuVLbroM0>

impressionnant !

mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
dans cette video la parallaxe est tres forte, et il y a donc plein de
désocclusions ( pixels sans information ) dont il faut recréer un
contenu plausible ( et stable à l'animation ).

tu as plus d'information sur le making of de cette video là ? ( je
soupçonne un énorme travail manuel ).


>>
>> Pour créer une image 3D sur Facebook, il faut passer par
>> l'application Facebook sur un smartphone :
>> https://fr-fr.facebook.com/help/android-app/414295416095269
>>
>> Je viens de vérifier que ça fonctionne avec n'importe quelle photo
>> prise au hasard pourvu qu'il y ait du contraste entre les différents
>> plans.
>
> Explication de l'algorithme :
> <https://ai.facebook.com/blog/powered-by-ai-turning-any-2d-photo-into-3d-using-convolutional-neural-nets/>
>

oui, mais ici la parallaxe (mouvements de caméra) reste assez faible,
sinon on voit des bandelettes de liaisons aux silhouettes ( meme si le
fait de reprojeter l'image masque souvent pas mal ).

--
Fabrice

Julien Arlandis

unread,
Aug 13, 2021, 11:24:22 AM8/13/21
to
Le 13/08/2021 à 17:21, robby a écrit :
> Le 11/08/2021 à 08:03, Julien Arlandis a écrit :
>> Le 11/08/2021 à 07:56, Julien Arlandis a écrit :
>>> Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
>>> avec n'importe quelle image, il ne s'agit que d'un algorithme
>>> facebook qui découpe détecte et détoure les plans de l'image pour
>>> leur appliquer séparément des transformations géométriques afin de
>>> donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
>>> même technique est utilisée dans les documentaires télé pour donner
>>> de la profondeur à un tableau ou à une photo d'époque. Un exemple ici :
>>>
>> <http://youtu.be/1DZuVLbroM0>
>
> impressionnant !
>
> mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
> dans cette video la parallaxe est tres forte, et il y a donc plein de
> désocclusions ( pixels sans information ) dont il faut recréer un
> contenu plausible ( et stable à l'animation ).
>
> tu as plus d'information sur le making of de cette video là ? ( je
> soupçonne un énorme travail manuel ).

J'ai pas plus d'info mais dans la vidéo c'est indiqué que c'est
réalisé avec Blender.
Peut être ont ils recréé la scène 3D à partir de la photo qu'ils ont
ensuite drapé sur les objets ?

Julien Arlandis

unread,
Aug 13, 2021, 5:43:15 PM8/13/21
to
Le 05/08/2021 à 07:14, robby a écrit :

> si c'est le cas, alors je dirais qu'on est coincé dans le marketing
> stérile de pousser les mega pixels inutiles,
> alors que le vrai probleme des photos numériques c'est le manque de
> dynamique ( peu de bits par couleur: l'ombre est vite toute noire et
> l'éclairé tout blanc ). Le HDR reste balbutiant et produit avec des
> inconvénients ( via composition de photos successives a expositions
> différentes ).

Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait il
capable de discerner les differences de tons d'une palette encore plus
large ?

Stéphane CARPENTIER

unread,
Aug 13, 2021, 5:55:41 PM8/13/21
to
Le 13-08-2021, robby <m...@pla.net.invalid> a écrit :
> Le 11/08/2021 à 08:03, Julien Arlandis a écrit :
>> Le 11/08/2021 à 07:56, Julien Arlandis a écrit :
>>> Je suppose que tu parles des photos 3D sur facebook? Tu peux le faire
>>> avec n'importe quelle image, il ne s'agit que d'un algorithme
>>> facebook qui découpe détecte et détoure les plans de l'image pour
>>> leur appliquer séparément des transformations géométriques afin de
>>> donner l'illusion d'une photo prise en 3D. Depuis quelques années, la
>>> même technique est utilisée dans les documentaires télé pour donner
>>> de la profondeur à un tableau ou à une photo d'époque. Un exemple ici :
>>>
>> <http://youtu.be/1DZuVLbroM0>
>
> impressionnant !

Oui.

> mais c'est plus compliqué que juste ajouter un z a chaque pixel, car
> dans cette video la parallaxe est tres forte, et il y a donc plein de
> désocclusions ( pixels sans information ) dont il faut recréer un
> contenu plausible ( et stable à l'animation ).

Pareil, à 43 secondes, il y a la branche qui se déplace devant la
voiture, et ça, c'est pas juste une transformation géométrique.

--
Si vous avez du temps à perdre :
https://scarpet42.gitlab.io

robby

unread,
Aug 14, 2021, 3:18:55 AM8/14/21
to
Le 13/08/2021 à 23:43, Julien Arlandis a écrit :
> Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait
> il capable de discerner les differences de tons d'une palette encore
> plus large ?

il y a pleins d'aspects.

- 8 bits par canal c'est pas du tout assez: un gradient horizontal
monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur les
~2000 pixels de large de ton écran, et les sauts se voient très bien (
meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
Et si c'est en couleur avec des gradients différents pour R,G,B, on
obtient des teintes fantome (car les sauts ne sont pas synchrones).

- l'oeil s'adapte a la luminosité globalement, mais aussi localement.
Avec un appareil photo en exterieur sur une scene a exposition variée tu
a vite fait d'avoir une ombre totalement noire, ou une partie au soleil
completement blanche: l'info perdue n'est pas rattrapable.
( après il pourrait exister des encodings + malin ).

( - a propos d'encoding, on pourrait tj mieux exploiter les bits ( par
pixels, voir dans l'image ), c'est bien ce sur quoi jouent les
compressions d'image ( bleu moins perçu, régions d'image a dynamique
faible ou contenu corrélée, etc ), mais évidemment ce point ne concerne
que le stockage, et sous reserve de ne pas vouloir faire de
post-traitements. )

- independamment de ça, n'avoir que 3 composants (et jamais assez
saturées ) fait qu'on ne peut interpoler qu'une petite partie du domaine
chromatique.
  en production on sait que le rendu du feu est souvent problématique,
par ex.
  En analogique existait des pellicules aux spécificités spectrales
variées, mais les capteurs en numérique sont assez standard ( + pb à la
restitution, de toutes façon ).

--
Fabrice

robby

unread,
Aug 14, 2021, 3:31:35 AM8/14/21
to
Le 13/08/2021 à 23:55, Stéphane CARPENTIER a écrit :
> Pareil, à 43 secondes, il y a la branche qui se déplace devant la
> voiture, et ça, c'est pas juste une transformation géométrique.

et parfois reconstitution du fond à derrière la voiture vu par les
fenêtres ouvertes.

--
Fabrice

Julien Arlandis

unread,
Aug 14, 2021, 5:09:38 AM8/14/21
to
Le 14/08/2021 à 09:18, robby a écrit :
> Le 13/08/2021 à 23:43, Julien Arlandis a écrit :
>> Tu trouves que 24 bits par pixel c'est pas assez, l'oeil humain serait
>> il capable de discerner les differences de tons d'une palette encore
>> plus large ?
>
> il y a pleins d'aspects.
>
> - 8 bits par canal c'est pas du tout assez: un gradient horizontal
> monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur les
> ~2000 pixels de large de ton écran, et les sauts se voient très bien (
> meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
> Et si c'est en couleur avec des gradients différents pour R,G,B, on
> obtient des teintes fantome (car les sauts ne sont pas synchrones).

Effectivement, une image en noir et blanc codée sur 24 bits ne contient
que 8 bits d'informations utiles, c'est peu. À combien faudrait il monter
le nombre de bits par canal pour un résultat acceptable, 12 bits, 16 bits
? Et surtout les capteurs numériques peuvent monter à combien ?

> - l'oeil s'adapte a la luminosité globalement, mais aussi localement.
> Avec un appareil photo en exterieur sur une scene a exposition variée tu
> a vite fait d'avoir une ombre totalement noire, ou une partie au soleil
> completement blanche: l'info perdue n'est pas rattrapable.
> ( après il pourrait exister des encodings + malin ).

Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
pas le nombre de bits par couche qui va régler ce problème, c'est
surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
améliorer.

> ( - a propos d'encoding, on pourrait tj mieux exploiter les bits ( par
> pixels, voir dans l'image ), c'est bien ce sur quoi jouent les
> compressions d'image ( bleu moins perçu, régions d'image a dynamique
> faible ou contenu corrélée, etc ), mais évidemment ce point ne concerne
> que le stockage, et sous reserve de ne pas vouloir faire de
> post-traitements. )
>
> - independamment de ça, n'avoir que 3 composants (et jamais assez
> saturées ) fait qu'on ne peut interpoler qu'une petite partie du domaine
> chromatique.

Pas compris, tu aurais un exemple ?

>   en production on sait que le rendu du feu est souvent problématique,
> par ex.

Quel est la nature du problème ? Au niveau de la compression ou de la
capture de l'image ?

robby

unread,
Aug 14, 2021, 6:12:44 AM8/14/21
to
Le 14/08/2021 à 11:09, Julien Arlandis a écrit :
> Effectivement, une image en noir et blanc codée sur 24 bits ne
> contient que 8 bits d'informations utiles, c'est peu. À combien
> faudrait il monter le nombre de bits par canal pour un résultat
> acceptable, 12 bits, 16 bits ? Et surtout les capteurs numériques
> peuvent monter à combien ?

NB: pour un gradient sur 4096 pixels, 12 bits suffisent a rendre chaque
valeur unique :-p
( en vrai c'est trop simpliste, e.g. si les valeurs extrêmes ne
recouvrent pas toute la dynamique ).

il faudrait retrouver les courbes de sensibilité humaine en condition
optimale, et repérer le gradient de sensibilité max ( vu qu'elle n'est
pas linéaire + pas meme encoding entre vision naturelle et artificielle
) mais de toute façon reste tj le cas + exigeant où tu veux pouvoir
faire des post-traitements, a commencer par corriger l'exposition.

les capteurs d'APN les plus pourris t'offrent 12 bits en raw depuis
longtemps. Pour les bons réflexes récents, je ne sais pas a combien où
on en est. Et si tu parle de télescopes professionnels, c'est encore
mieux. :-)
Cela dit ya ce que peut le capteur, et ya les limites dues a toutes les
sources de bruit ( thermique, optique, numérique ).


> Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
> pas le nombre de bits par couche qui va régler ce problème, c'est
> surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
> améliorer.
c'est la meme chose !
certes l'appareil peut essayer de mieux regler l'exposition au min/max
de la photo, reste que souvent dans la meme photo tu peux avoir du
normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
les quantum seront enormes. Il te faut + de bits !  la solution HDR du
pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
façon de donner plus de bits, au risque du bouger ).
A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
d'avoir 2 optiques a exposition differente, l'une basse resolution
servant  à moduler l'exposition des pixels de l'autre.

>
>> - independamment de ça, n'avoir que 3 composants (et jamais assez
>> saturées ) fait qu'on ne peut interpoler qu'une petite partie du
>> domaine chromatique.
>
> Pas compris, tu aurais un exemple ?

exemple ici:
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg

tu y vois le classique diagramme CIE représentant toutes les couleurs
perceptibles, et le triangle est la zone que tu peux obtenir en
combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
triangles sont tj loin des bords perceptibles (jamais aussi saturés
qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
triangle laisse des tas de régions pas couvertes ( un cyan numérique
n'est jamais aussi saturé qu'un bleu ou vert numériques ).

Pour des capteurs ou ecrans/imprimantes, tu peux parfois trouver des
docs montrant leur domaine dans le diagramme CIE.

>>    en production on sait que le rendu du feu est souvent
>> problématique, par ex.
>
> Quel est la nature du problème ? Au niveau de la compression ou de la
> capture de l'image ?

capture et color space.
En synthese d'image, par ex, il faudrait autoriser des R,G,B negatifs
pour pouvoir sortir du triangle  ( par ex RGB=(-.3,1,1) est un cyan plus
pur ), puis tout a la fin remapper tout ça dans un domaine affichable
(idéalement, selon techno de projection/impression ).

--
Fabrice

robby

unread,
Aug 14, 2021, 6:13:50 AM8/14/21
to

> exemple ici:
> https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
>

tiré de l'article "When measuring colour, ensure you choose the right
sensor and chip technology"
https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/


--
Fabrice

robby

unread,
Aug 14, 2021, 6:16:20 AM8/14/21
to

> exemple ici:
> https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
>

après le capteur, il y a le stockage et color space.
en sRGB normalisé, regarde tout ce que tu loupe:

http://regex.info/blog/photo-tech/color-spaces-page5

--

Fabrice

robby

unread,
Aug 14, 2021, 11:01:56 AM8/14/21
to
Le 14/08/2021 à 09:18, robby a écrit :
> - 8 bits par canal c'est pas du tout assez: un gradient horizontal
> monochrome ( gris par exemple ) va etaler 256 niveaux seulement sur
> les ~2000 pixels de large de ton écran, et les sauts se voient très
> bien ( meme si on peut ditherer, ce qui revient a emuler d'autres tons ).
> Et si c'est en couleur avec des gradients différents pour R,G,B, on
> obtient des teintes fantome (car les sauts ne sont pas synchrones).

pour le color ghosting du a la quantisation, voici une demo:
https://www.shadertoy.com/view/NdcGRr

--
Fabrice

Julien Arlandis

unread,
Aug 17, 2021, 5:49:12 AM8/17/21
to
Le 14/08/2021 à 12:12, robby a écrit :

>> Mais ça c'est un problème du capteur lors de la prise de vue, ce n'est
>> pas le nombre de bits par couche qui va régler ce problème, c'est
>> surtout l'étendue de la plage dynamique des capteurs qu'il faudrait
>> améliorer.
> c'est la meme chose !
> certes l'appareil peut essayer de mieux regler l'exposition au min/max
> de la photo, reste que souvent dans la meme photo tu peux avoir du
> normal + tres sombre, ou normal + tres lumineux, ou les deux. Si tu
> reparti tes 8 bits par channel sur 4 magnitudes de luminance en pratique
> les quantum seront enormes. Il te faut + de bits !  la solution HDR du
> pauvre actuelle etant de faire un bracketing rapide à 3 expositions (
> façon de donner plus de bits, au risque du bouger ).
> A defaut de capteurs 24 bits par channel, un truc malin serait peut etre
> d'avoir 2 optiques a exposition differente, l'une basse resolution
> servant  à moduler l'exposition des pixels de l'autre.

Je vois mieux le problème, si on reste sur des capteurs 8 bits par
couche, on ne peut plus réhausser numériquement la luminosité dans les
zones sombres sans obtenir un gradient en marches d'escalier. Le problème
pourrait être contourné comme tu le dis avec des capteurs 24 bits par
couche qui permettraient de rescaler numériquement la luminosité avec
des marches 2^16 fois moins grandes qu'en 8 bits, et on pourrait même
reconvertir l'image en 8 bits par couche pour rester compatible avec les
écrans actuels. Autre solution avec des capteurs 8 bits, on pourrait
enregistrer pour chaque capteur leur réponse U(t) pendant la durée
d'exposition, on pourrait ainsi sélectionner localement la bonne
luminosité.

Julien Arlandis

unread,
Aug 17, 2021, 7:57:11 AM8/17/21
to
Le 14/08/2021 à 12:12, robby a écrit :

>>> - independamment de ça, n'avoir que 3 composants (et jamais assez
>>> saturées ) fait qu'on ne peut interpoler qu'une petite partie du
>>> domaine chromatique.
>>
>> Pas compris, tu aurais un exemple ?
>
> exemple ici:
>
> https://www.micro-epsilon.co.uk/news/2018/UK_ME321-understandiing-colour-space/CIE-en-XYZ-colour-space.jpg
>
> tu y vois le classique diagramme CIE représentant toutes les couleurs
> perceptibles, et le triangle est la zone que tu peux obtenir en
> combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
> triangles sont tj loin des bords perceptibles (jamais aussi saturés
> qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
> triangle laisse des tas de régions pas couvertes ( un cyan numérique
> n'est jamais aussi saturé qu'un bleu ou vert numériques ).

Est ce que le problème est lié au choix des longueurs d'onde du système
RGB ou bien il n'est tout simplement pas possible de reproduire l'ensemble
des couleurs perceptibles par synthèse additive de 3 couleurs
prédéfinies ? Je suppose que le problème est fondamentalement
physiologique lié au chevauchement des réponses des 3 types de cônes
photosensibles ?

pehache

unread,
Aug 17, 2021, 8:34:21 AM8/17/21
to

pehache

unread,
Aug 17, 2021, 8:47:33 AM8/17/21
to
Le 17/08/2021 à 11:49, Julien Arlandis a écrit :
Même les capteurs les plus basiques quantifient en 10 bits par couches,
la plupart le font en 12 bits, et les meilleurs en 14 bits (ouvrir un
fichier RAW et vérifier ses caractéristiques; en fait quantifier en
plein de bits par couche est facile, mais ça ne sert à pas grand-chose
si le rapport S/N est pourri parce que les photosites sont trop petits).

Ceci dit entre la luminosité enregistrée brute dans un fichier RAW et la
luminosité codée dans un fichier image courant (JPG, PNG, TIFF,...) il y
a une loi de gamma appliquée, qui est justifiée par la sensibilité de
l'oeil : un gris dit "50%" correspond à une luminosité brute de 18% par
rapport au blanc. Et en fait une résolution 8 bits sur le fichier image
suffit à exploiter les 12 bits d'un fichier RAW.

ro...@pla.net.invalid

unread,
Aug 17, 2021, 10:56:26 AM8/17/21
to
On 17/08/2021 11:49, Julien Arlandis wrote:
> Je vois mieux le problème, si on reste sur des capteurs 8 bits par
> couche, on ne peut plus réhausser numériquement la luminosité dans les
> zones sombres sans obtenir un gradient en marches d'escalier.

voila: dynamique très faible dans les sombres (quantisation évidente),
et bits totalement perdus là où c'est saturé.

> Le problème pourrait être contourné comme tu le dis avec des capteurs 24
> bits par couche qui permettraient de rescaler numériquement la
> luminosité avec des marches 2^16 fois moins grandes qu'en 8 bits,

rescaler et/ou offseter.


> on pourrait ainsi sélectionner localement la bonne luminosité.

voila.

ce qui est un peu le symmétrique des écrans télé "HDR" à dalle LED "gros
pixels" où l'ordre de grandeur de la luminance de l'image est règlé à
basse résolution par la dalle, puis le contraste est affiné à haute
résolution par la couche de cristaux liquides.


--

Fabrice

ro...@pla.net.invalid

unread,
Aug 17, 2021, 11:04:17 AM8/17/21
to
On 17/08/2021 13:57, Julien Arlandis wrote:
> Le 14/08/2021 à 12:12, robby a écrit :

>> tu y vois le classique diagramme CIE représentant toutes les couleurs
>> perceptibles, et le triangle est la zone que tu peux obtenir en
>> combinant le résultat de 3 capteurs. 2 problemes: les 3 points du
>> triangles sont tj loin des bords perceptibles (jamais aussi saturés
>> qu'un pur rainbow), et de tt façon l'interpolation convexe dans le
>> triangle laisse des tas de régions pas couvertes ( un cyan numérique
>> n'est jamais aussi saturé qu'un bleu ou vert numériques ).

> Est ce que le problème est lié au choix des longueurs d'onde du système
> RGB ou bien il n'est tout simplement pas possible de reproduire
> l'ensemble des couleurs perceptibles par synthèse additive de 3 couleurs
> prédéfinies ?

les deux mon capitaine:
- un triangle ( = domaine RGB interpolable à partir de R,G,B et coeffs
entre 0 et 1 ) ne peut pas recouvrir tout le gamut en fer à cheval.

- les limites techniques des capteurs comme des luminophores ne
permettent pas d'etre très proche des bords du gamut en fer à cheval.

pour le pb 1, note que des formats d'encodages ( = color spaces ) sont
proposés avec des triangles aux sommets arbitraires, voire non physiques
genre en dehors du gamut (ça implique juste que des triplets de coeffs
sont soit innaccessibles physiquement, soit inaccessibles pratiquement
avec les capteurs ou luminophores. ce qui en passant gache un peu les
bits ).

pour le pb 2, note que l'imprimerie peu utiliser plus de 3 encres, ce
qui crée un polygone plus apte a couvrir le gamut. Bon maintenant
l'impression a bien d'autres limitations qui font que c'est difficile
quand meme d'etre large.

--

Fabrice

Julien Arlandis

unread,
Aug 17, 2021, 2:19:34 PM8/17/21
to
En gros, les bits ou les couleurs, il faut choisir :)

robby

unread,
Aug 18, 2021, 1:13:26 AM8/18/21
to
Le 17/08/2021 à 20:19, Julien Arlandis a écrit :
> En gros, les bits ou les couleurs, il faut choisir :)

c'est plutôt: on est mauvais pour les deux, mais le marketing continue à
ne pousser qu'exclusivement sur la résolution ( inutilement grande
(surtout avec la meme optique), grandement couteuse en stockage dans
toute la chaine, et agravant les problemes de bruit puisque surface
receptrice + petite. )

--
Fabrice

François Guillet

unread,
Sep 7, 2021, 6:08:28 AM9/7/21
to
Richard Hachel a formulé la demande :
> Le 04/08/2021 à 16:53, ro...@pla.net.invalid a écrit :
>> On 09/07/2021 14:06, Richard Hachel wrote:
>>> Bonjour, je vois de plus en plus de photos 3D sur les forums.
>>> Comment ça marche?
>>> L'appareil prend plusieurs angles en même temps?
>>
>> de nos jour pas mal de smartphones sont équipés de 2 voire 3 objectifs,
>> donc ça marche tout seul (d'autant qu'il y a maintenant les formats pour ).
>>
>> maintenant avec 2 prises de vues distantes, il y a toujours moyen d'encoder
>> ça a posteriori.
>
> Théoriquement, il faut quatre objectifs, non?

C'est cela oui, un par oeil.

François Guillet

unread,
Sep 7, 2021, 6:18:11 AM9/7/21
to
Dans son message précédent, Julien Arlandis a écrit :
Il y a évidemment de la triche, ce n'est pas qu'une simple
transformation. De l'information est recréée (donc inventée) là où elle
manque.
Par ex. à 1:24, l'homme assis cache une partie de la voiture. La partie
cachée va varier avec l'angle de vue, et on va voir des parties de la
voiture qui ne pouvaient pas exister sur la photo originale.
C'est sans doute pour ça que les changements de vue ne sont pas
radicaux : il faut pouvoir interpoler ce qu'il manque.

Julien Arlandis

unread,
Oct 26, 2021, 6:13:51 PM10/26/21
to
Effectivement dans cet exemple, on ne voit jamais simultanément le
rétroviseur et la poignée de porte. Quelle est la partie complétée, la
poignée ou le rétroviseur ? Difficile à dire.
0 new messages