L'optimisation de l'exposition pour le numérique

sekonic-l-758drCopie 1_1500_06_05_13

N°6 de la série sur l'Exposition

 

Définition 

L'optimisation pour le numérique consiste à décaler l'exposition vers les valeurs claires, afin que l'aquisition de l'image par l'appareil photo, se fasse sans pertes. Cette optimisation tire parti de la manière dont les données informatiques sont réparties au moment de la conversion Analogique (image saisie par le capteur) vers Numérique (conversion numérique puis traitement numérique des données provenant du capteur). Il ne s'agit pas de théorie, mais d'un manière de procéder que - au moins à titre personnel - j'ai utilisé sur des dizaines de milliers de photos.

 

Pourquoi optimiser ?

Parce que les données numériques sont organisées de manière a privilégier les hautes lumières.

Si on ne décale pas l'exposition, non seulement on perd l'avantage de ce privilège sur les hautes lumières, mais en plus on pénalise les basses lumières. Ceci reste valable même pour les capteurs les plus récents, y compris les "iso invariants" Sony
 

Note : en argentique négatif, on peut surexposer volontairement de 1IL un néga noir et blanc afin de tirer un meilleur parti des valeurs sombres. En diapo, on peut parfois sous-exposer de 1/2 IL pour saturer les couleurs. Cette optimisation d'exposition n'est donc pas quelque chose de nouveau
 

Vous trouverez en bas de l'article, davantage d'explications techniques sur ce point.

 

Comment fait-on pour optimiser ?

On va décaler l'exposition de +1,33 IL, mais uniquement dans le cas de la mesure incidente au flashmètre/posemètre. Concrètement, si vous photographiez à ƒ/4 sur votre boitier, vous réglez votre flash pour ƒ/6,3. Evidemment en procédant ainsi, l'appareil photo va vous dire que votre image est surexposée. Il n'en est rien. Les appareils photo sont construits pour tous types de public, en mesure préventive de vraies surexpositions. Optimiser à +1,33 IL n'est pas une surexposition. Non seulement les données ne sont pas abimées par "trop de lumière", mais elles ne sont pas non plus abimées par "manque de lumière".

 

Démonstrations

Vous trouverez ci-dessous des tutos anexes qui démontrent, images à l'appui, que l'optimisation fonctionne et comment elle fonctionne 

 

De manière simple, comment ce chiffre à t-il été déterminé ?

On peut le constater par approche graduelle. Si on met un peu plus que 1,33, les hautes lumières seront réellement abimées (cramées). +1,33 correspond donc très précisément au décalage maximum vers les valeurs claires, mais sans détruire les hautes lumières. C'est donc le décalage optimum.
Cette valeur s'applique à tous les boitiers, pour tous les formats (APSC, 24x36, Moyen Format). A ma connaissance il n'existe aucun boitier qui demanderait une autre valeur d'optimisation. mais si vous en entendez parler, n'hesitez pas à m'en faire part.

 

Pour une explication plus technique de la manière dont ce chiffre est déterminé,  vous trouverez en bas de l'article, davantage d'explications sur ce point.

 

Quel type de mesure ?

Attention, cette valeur d'optimisation de +1,33 n'est valable que dans le cadre d'une mesure incidente au flashmètre/posemètre. L'optimisation en mesure réfléchie est possible, mais elle demande une interprétation, ce qui implique une grande maitrise, une parfaite connaissance de son matériel et des différentes situations qui peuvent se présenter.

 

Pourquoi ne pas optimiser dans Lightroom ?

L'optimisation doit impérativement se faire à la prise de vues. Une fois que la photo à été prise, les données sont irrémédiablement perdues si on n'a pas optimisé. Augmenter de +1,33 dans un logiciel ne créera pas des données qui n'existent pas. En revanche, ca mettra en évidence l'abscence de ces données perdues par des effets indésirables : postérisation (effet de "vagues" dans la couleur ou dans les niveaux de gris), dégradés "cassés", bruit numérique, destruction des couleurs (peau humaine de couleur rouge brique), etc

 

Doit-on systématiquement optimiser ?

Il n'y a à priori aucune raison de ne pas le faire. Cependant, l'appareil prendra tout de même la photo, même si vous n'optimisez pas. Le fichier sera simplement moins "souple" et vous prendrez le risque de faire apparaitre des défauts visibles dans le traitement (postérisations, artefacts, bruit vidéo, couleurs abimées, etc). Il n'est pas plus difficile d'optimiser que de ne pas le faire. 

 

Exposer à droite

Plutot que d'utiliser le terme "Exposer à droite" qui peut être trompeur et qui est tres rarement compris, je préfère utiliser le terme de "Optimiser l'exposition pour le numérique"

Références

Données avancées : Comment le chiffre  de +1,33 à t-il été déterminé ?
(Merci à David Pons pour le schéma et le texte de ce chapitre)

La cellule d'un appareil, comme celle d'un flashmètre/posemètre, est calée pour qu'un gris neutre qui réfléchit 18% de lumière apparaisse sur l'image comme un gris moyen de luminance 50% (0% étant le noir et 100% du blanc pur).

 

Une feuille de papier, ou toute autre surface blanche non spéculaire (blanche mais qui ne réfléchit pas comme un miroir) se situant dans la scène apparaitra sur l'image comme un gris très clair à 95% environ.

 

Cette partie étant justement la plus claire de la scène (puisque blanche), il reste malgré tout l'équivalent de +1.33 IL avant écrétage.

 

Il est alors souhaitable d'exposer en se décalant de cette valeur pour que les parties blanches de la scène se situent à presque 100% (99.8%).

 

L'exposition sera alors optimisée pour un échantillonnage numérique le plus "fin" possible.

25151931_1895224550506894_1800594685154289968_n

Sur le schéma, EV=0 est le calage du gris 18% donnant une luminosité sur l'image de 50% (c'est le calage d'une cellule/flashmètre/posemètre).

 

Une feuille de papier sera alors plus claire d'environ +2 IL (environ 2 diaphragmes). Un capteur écrétant à + 3.33IL (quelques variations selon les marques), on a donc encore +1.33 IL de surplus qu'on peut utiliser.

 

La valeur +1.33 IL permet d'exposer "au plus clair" sans surexposer, c'est à dire sans saturer/déborder le(s) capteurs/photosites."

Données avancées : L'acquisition des données en 14 bits


Un capteur numérique transforme la lumière en signaux électriques. Il délivre donc un signal analogique. C'est lors de la conversion Analogique / Numérique réalisée par le processeur de l'appareil photo, que les données sont converties en numérique, codées et stockées. à Ce stade, l'information est brute (RAW) et on ne parle pas encore d'image.

 

Optomisation, profondeur d'échantillonnage et dynamique

 

La plupart des appareils actuels codent l'information sur une profondeur de 14 bits. Pour faire simple, la profondeur désigne la richesse de l'information stockée. Plus le nombre de bits est important, et plus une même information sera codée "finement". La profondeur de codage n'a aucune incidence sur la dynamique qui elle, dépend du rapport signal / bruit. La grande majorité des Moyens Formats codent l'information sur 16 bits.

 

Découpage de l'information

 

Important : Les données ci-dessous concernent bien l'échantillonnage, et non pas le dématriçage. La manière dont le dématriçage opère, ne remet pas en question la manière dont va varier profondeur d'échantillonnage.

 

14 bits équivalent à 2^14 (2 puissance 14) nuances pour chaque couche RVB, soit 16384 nuances par couche.

Si on divise le spectre lumineux par 5, on pourrait penser à première vue que chaque partie recevrait 1/5eme de ces 16384 bits pour conserver l'information, soit environ 3276 nuances par couche pour chaque zone du spectre. Il n'en est rien.

 

En fait, c'est la motié de ces 16384 nuances qui va servir à stocker les tres hautes lumières, puis à nouveau la moitié pour les hautes lumières, etc

Ce qui donne : 
 

  1. Tres hautes lumières : 8192 nuances par couche RVB
  2. Hautes lumières : 4096 nuances par couche RVB
  3. Valeurs moyennes : 2048 nuances par couche RVB
  4. Basses lumières : 1024 nuances par couche RVB
  5. Tres basses lumières : 512 nuances par couche RVB

 

On voit donc que cette répartition des informations induit plusieurs conséquences : 

  • Le dernier IL, la zone des Tres Hautes Lumières, contient à lui seul autant d'informations que les tous les autres réunis.
  • Une sous exposition de 1 IL revient donc à perdre irrémédiablement 50% des nuances disponibles. Les informations seront bien là, mais elles seront disponibles avec deux fois moins de nuances.
  • La qualité des couleurs et notamment celles utilisées dans la restitution de la peau humaine est affectée. Si on tente d'éclairicir une photo sous-exposée, la peau pourra prendre des tonalités rouge brique ou marron terracota, car les subtiles nuances nécessaires pour rendre la peau correctement n'existent pas. Et le logiciel sera incapable de les reconstituer. Sous-exposer altère ou détruit les couleurs, et ce, même sur les systemes récents.
  • Pour que les hautes lumières de la scène soient échantillonnées avec 8192 nuances par couche, il est indispensable d'optimiser l'exposition. Si on ne le fait pas, ces hautes lumières seront échantillonnées sur seulement 4096 nuances. Bien évidemment, toutes les autres valeurs seront décalées également.
  • De ce fait, même pour une image ne présentant pas de hautes lumières et seulement des basses lumières (un low key par exemple) l'optimisation est nécessaire afin de doubler la profondeur d'échantillonnage

A ma connaissance, tous les systemes actuels fonctionnent de cette manière, même si les capteurs s'améliorent, l'échantillonnage lui, suit toujours le même principe. Mais si une nouvelle technologie est un jour mise au point, nul doute que nous en serons informés.

Images protegées