La mesure de la lumière en numérique

sekonic0000100001

N°7 de la série sur l'Exposition

Mesure de la source en studio

 

  • On règle le flashmètre pour afficher la sensibilité iso de son boitier

  • On règle également la vitesse. En studio le temps d'obturation n'a pas d'importance mais il ne doit pas dépasser la vitesse de synchro

  • On règle de Flashmètre en priorité T (temps d'exposition)

  • On choisit ensuite un diaphragme que l'on affichera sur son boiter. par exemple ƒ/5,6

  • On place le flashmètre devant le visage du sujet, sphère rentrée (90°) en direction du centre de la source, en commençant par la keylight. En mesurant ainsi on va "attraper" les hautes lumières de la scène.

  • On règle les autres sources s'il y en a, en utilisant la même méthode, en laissant tous les flashs allumés, afin que la mesure prenne en compte le chevauchement des sources.

  • Note : on peut faire la mesure sur soi-même en l'absence du modèle. Cela permet d'etre prêt à son arrivée.

  • On règle la puissance du flash par mesures successives jusqu'à afficher sur le flashmètre, le diaphragme choisi.

  • Pour optimiser l'exposition, on règlera la lumière jusqu'à obtenir "ƒ/5,6 + 1,33 IL" soit ƒ/9 dans notre exemple.
     

De l'usage de la sphère rétractable

 

En position rentrée, la lecture se fait à 90°, ce qui est utile pour isoler ce que l'on veut mesurer sans prendre en compte une autre source ou même les réflexions de la lumière dans la pièce ou autour de la source.

En position sortie, la lecture se fait à 180°, ce qui sert à intégrer le sujet mesuré dans son environnement (d'ou le nom de "Sphère Intégratrice") en mesurant la source, ses réflexions sur l'environnement ainsi que l'influence des autres sources éventuelles.

Voici les principaux modes d'utilisation de la Lumisphère : 
 

  • Lumisphère rentrée : Mesure de la source en studio en direction et au centre de la source. On fera une telle mesure pour la source principale et pour les sources secondaires.
  • Lumisphère sortie : Mesure en lumière naturelle. La plupart du temps, on dirigera la sphère en direction de l'appareil photo, car la source (le soleil) est "partout". 
  • Lumisphère sortie : Mesure en lumière mixte, en intérieurs ou en exterieurs. On dirigera la sphère en direction du flash afin que celle-ci prenne en compte l'addition des deux sources. Le Flashmètre Posemètre donnera le % de lumière flash (et par déduction, celui de lumière ambiante)
  • Lumisphère sortie : Mesure de contraste. lorsque l'on fait ce type de mesure, on dirige la sphère vers l'appareil photo, car le contraste varie avec le point de vue. Or le point de vue pour votre photographie sera celui de l'appareil photo.
  • Lumisphère rentrée : Mesure de contraste dans certains cas tres particuliers comme par exemple la mesure d'un contraste sur une surface plane (tableau) ou dont les deux points de mesure sont tres proches (sur le visage par exemple). lorsque l'on fait ce type de mesure, on dirige la sphère vers l'appareil photo. Nous aborderons ce type de mesure de contraste ultérieurement

 

Quel flashmètre choisir ?

 

Les Sekonic 358, 478, 758 et 858 possèdent une lumisphère (sphère) rétractable. Ils possèdent aussi la touche ∆EV qui permet de mesurer les écarts de contratse et de les exprimer en ILs et 1/10e d'ILs en lecture directe. C'est entre autres parce qu'il n'en possède pas que nous ne recommandons pas le 308. Un flashmètre fonctionne avec N'IMPORTE QUELLE MARQUE DE FLASH.

L'optimisation de l'exposition pour le numérique

sekonic-l-758drCopie 1_1500_06_05_13

N°6 de la série sur l'Exposition

 

Définition 

L'optimisation pour le numérique consiste à décaler l'exposition vers les valeurs claires, afin que l'aquisition de l'image par l'appareil photo, se fasse sans pertes. Cette optimisation tire parti de la manière dont les données informatiques sont réparties au moment de la conversion Analogique (image saisie par le capteur) vers Numérique (conversion numérique puis traitement numérique des données provenant du capteur). Il ne s'agit pas de théorie, mais d'un manière de procéder que - au moins à titre personnel - j'ai utilisé sur des dizaines de milliers de photos.

 

Pourquoi optimiser ?

Parce que les données numériques sont organisées de manière a privilégier les hautes lumières.

Si on ne décale pas l'exposition, non seulement on perd l'avantage de ce privilège sur les hautes lumières, mais en plus on pénalise les basses lumières. Ceci reste valable même pour les capteurs les plus récents, y compris les "iso invariants" Sony
 

Note : en argentique négatif, on peut surexposer volontairement de 1IL un néga noir et blanc afin de tirer un meilleur parti des valeurs sombres. En diapo, on peut parfois sous-exposer de 1/2 IL pour saturer les couleurs. Cette optimisation d'exposition n'est donc pas quelque chose de nouveau
 

Vous trouverez en bas de l'article, davantage d'explications techniques sur ce point.

 

Comment fait-on pour optimiser ?

On va décaler l'exposition de +1,33 IL, mais uniquement dans le cas de la mesure incidente au flashmètre/posemètre. Concrètement, si vous photographiez à ƒ/4 sur votre boitier, vous réglez votre flash pour ƒ/6,3. Evidemment en procédant ainsi, l'appareil photo va vous dire que votre image est surexposée. Il n'en est rien. Les appareils photo sont construits pour tous types de public, en mesure préventive de vraies surexpositions. Optimiser à +1,33 IL n'est pas une surexposition. Non seulement les données ne sont pas abimées par "trop de lumière", mais elles ne sont pas non plus abimées par "manque de lumière".

 

Démonstrations

Vous trouverez ci-dessous des tutos anexes qui démontrent, images à l'appui, que l'optimisation fonctionne et comment elle fonctionne 

 

De manière simple, comment ce chiffre à t-il été déterminé ?

On peut le constater par approche graduelle. Si on met un peu plus que 1,33, les hautes lumières seront réellement abimées (cramées). +1,33 correspond donc très précisément au décalage maximum vers les valeurs claires, mais sans détruire les hautes lumières. C'est donc le décalage optimum.
Cette valeur s'applique à tous les boitiers, pour tous les formats (APSC, 24x36, Moyen Format). A ma connaissance il n'existe aucun boitier qui demanderait une autre valeur d'optimisation. mais si vous en entendez parler, n'hesitez pas à m'en faire part.

 

Pour une explication plus technique de la manière dont ce chiffre est déterminé,  vous trouverez en bas de l'article, davantage d'explications sur ce point.

 

Quel type de mesure ?

Attention, cette valeur d'optimisation de +1,33 n'est valable que dans le cadre d'une mesure incidente au flashmètre/posemètre. L'optimisation en mesure réfléchie est possible, mais elle demande une interprétation, ce qui implique une grande maitrise, une parfaite connaissance de son matériel et des différentes situations qui peuvent se présenter.

 

Pourquoi ne pas optimiser dans Lightroom ?

L'optimisation doit impérativement se faire à la prise de vues. Une fois que la photo à été prise, les données sont irrémédiablement perdues si on n'a pas optimisé. Augmenter de +1,33 dans un logiciel ne créera pas des données qui n'existent pas. En revanche, ca mettra en évidence l'abscence de ces données perdues par des effets indésirables : postérisation (effet de "vagues" dans la couleur ou dans les niveaux de gris), dégradés "cassés", bruit numérique, destruction des couleurs (peau humaine de couleur rouge brique), etc

 

Doit-on systématiquement optimiser ?

Il n'y a à priori aucune raison de ne pas le faire. Cependant, l'appareil prendra tout de même la photo, même si vous n'optimisez pas. Le fichier sera simplement moins "souple" et vous prendrez le risque de faire apparaitre des défauts visibles dans le traitement (postérisations, artefacts, bruit vidéo, couleurs abimées, etc). Il n'est pas plus difficile d'optimiser que de ne pas le faire. 

 

Exposer à droite

Plutot que d'utiliser le terme "Exposer à droite" qui peut être trompeur et qui est tres rarement compris, je préfère utiliser le terme de "Optimiser l'exposition pour le numérique"

Références

Données avancées : Comment le chiffre  de +1,33 à t-il été déterminé ?
(Merci à David Pons pour le schéma et le texte de ce chapitre)

La cellule d'un appareil, comme celle d'un flashmètre/posemètre, est calée pour qu'un gris neutre qui réfléchit 18% de lumière apparaisse sur l'image comme un gris moyen de luminance 50% (0% étant le noir et 100% du blanc pur).

 

Une feuille de papier, ou toute autre surface blanche non spéculaire (blanche mais qui ne réfléchit pas comme un miroir) se situant dans la scène apparaitra sur l'image comme un gris très clair à 95% environ.

 

Cette partie étant justement la plus claire de la scène (puisque blanche), il reste malgré tout l'équivalent de +1.33 IL avant écrétage.

 

Il est alors souhaitable d'exposer en se décalant de cette valeur pour que les parties blanches de la scène se situent à presque 100% (99.8%).

 

L'exposition sera alors optimisée pour un échantillonnage numérique le plus "fin" possible.

25151931_1895224550506894_1800594685154289968_n

Sur le schéma, EV=0 est le calage du gris 18% donnant une luminosité sur l'image de 50% (c'est le calage d'une cellule/flashmètre/posemètre).

 

Une feuille de papier sera alors plus claire d'environ +2 IL (environ 2 diaphragmes). Un capteur écrétant à + 3.33IL (quelques variations selon les marques), on a donc encore +1.33 IL de surplus qu'on peut utiliser.

 

La valeur +1.33 IL permet d'exposer "au plus clair" sans surexposer, c'est à dire sans saturer/déborder le(s) capteurs/photosites."

Données avancées : L'acquisition des données en 14 bits


Un capteur numérique transforme la lumière en signaux électriques. Il délivre donc un signal analogique. C'est lors de la conversion Analogique / Numérique réalisée par le processeur de l'appareil photo, que les données sont converties en numérique, codées et stockées. à Ce stade, l'information est brute (RAW) et on ne parle pas encore d'image.

 

Optomisation, profondeur d'échantillonnage et dynamique

 

La plupart des appareils actuels codent l'information sur une profondeur de 14 bits. Pour faire simple, la profondeur désigne la richesse de l'information stockée. Plus le nombre de bits est important, et plus une même information sera codée "finement". La profondeur de codage n'a aucune incidence sur la dynamique qui elle, dépend du rapport signal / bruit. La grande majorité des Moyens Formats codent l'information sur 16 bits.

 

Découpage de l'information

 

Important : Les données ci-dessous concernent bien l'échantillonnage, et non pas le dématriçage. La manière dont le dématriçage opère, ne remet pas en question la manière dont va varier profondeur d'échantillonnage.

 

14 bits équivalent à 2^14 (2 puissance 14) nuances pour chaque couche RVB, soit 16384 nuances par couche.

Si on divise le spectre lumineux par 5, on pourrait penser à première vue que chaque partie recevrait 1/5eme de ces 16384 bits pour conserver l'information, soit environ 3276 nuances par couche pour chaque zone du spectre. Il n'en est rien.

 

En fait, c'est la motié de ces 16384 nuances qui va servir à stocker les tres hautes lumières, puis à nouveau la moitié pour les hautes lumières, etc

Ce qui donne : 
 

  1. Tres hautes lumières : 8192 nuances par couche RVB
  2. Hautes lumières : 4096 nuances par couche RVB
  3. Valeurs moyennes : 2048 nuances par couche RVB
  4. Basses lumières : 1024 nuances par couche RVB
  5. Tres basses lumières : 512 nuances par couche RVB

 

On voit donc que cette répartition des informations induit plusieurs conséquences : 

  • Le dernier IL, la zone des Tres Hautes Lumières, contient à lui seul autant d'informations que les tous les autres réunis.
  • Une sous exposition de 1 IL revient donc à perdre irrémédiablement 50% des nuances disponibles. Les informations seront bien là, mais elles seront disponibles avec deux fois moins de nuances.
  • La qualité des couleurs et notamment celles utilisées dans la restitution de la peau humaine est affectée. Si on tente d'éclairicir une photo sous-exposée, la peau pourra prendre des tonalités rouge brique ou marron terracota, car les subtiles nuances nécessaires pour rendre la peau correctement n'existent pas. Et le logiciel sera incapable de les reconstituer. Sous-exposer altère ou détruit les couleurs, et ce, même sur les systemes récents.
  • Pour que les hautes lumières de la scène soient échantillonnées avec 8192 nuances par couche, il est indispensable d'optimiser l'exposition. Si on ne le fait pas, ces hautes lumières seront échantillonnées sur seulement 4096 nuances. Bien évidemment, toutes les autres valeurs seront décalées également.
  • De ce fait, même pour une image ne présentant pas de hautes lumières et seulement des basses lumières (un low key par exemple) l'optimisation est nécessaire afin de doubler la profondeur d'échantillonnage

A ma connaissance, tous les systemes actuels fonctionnent de cette manière, même si les capteurs s'améliorent, l'échantillonnage lui, suit toujours le même principe. Mais si une nouvelle technologie est un jour mise au point, nul doute que nous en serons informés.

Pourquoi le choix du diaphragme est-il un facteur majeur ?

40_1500_27.08.15_1-200 s à f - 4,0

La raison est éditoriale. 


La réponse n'est pas un absolu. Mais elle vous explique pourquoi le choix du diaph doit être laissé au Photographe (ou au directeur artistique) : 

 

  • Il est tres important que le diaph soit constant pour que la Profondeur De Champ soit constante, dans la mesure du possible
  • D'une manière générale, il faut essayer également de garder une distance de PDV constante, là aussi pour que la Profondeur De Champ soit constante, tout comme le point de vue

Pour les raisons suivantes : 

 

  • Si vous faites des séries éditoriales (comme pour un édito magazine) votre série sera UNIFORME. D'ailleurs il peut arriver que le DA du magazine vous donne le diaph a utiliser (même s'il ne l'exprime pas de manière technique)
  • Idem si vous faites des séries artistiques. La photographie n'est pas exclusivement la photo unique, il fait etre capable de réaliser des séries
  • Si dans votre portfolio vous avez des images à toutes les Profondeur De Champ, cela va donner une impression de travail chaotique et non uniforme. cela va impacter votre style.
  • Un diaph peut etre imposé pour raison artistico-technique. En coiffure par exemple, il va falloir davantage de Profondeur De Champ (tout dépendra de la demande du client) car on peut vouloir que le travail de coiffure soit dans la zone nette

 

Il s'agit de recommandations d'ordre artistique basé sur ce que j'ai pu expérimenter. Pas de règles absolues. Il y a bien entendu des exceptions.

 

  • Pour des raisons de qualité optique, il ne faut cependant pas trop fermer, sauf avec les optiques "premium" comme les Leica M ou les Hasselblad MF
  • Cependant, il ne faut pas trop ouvrir non plus, car à ƒ/3,2 et en dessous QUEL QUE SOIT LE FORMAT, la progressivité est nulle et le passage de net à flou est ultra brutal. Les clients (ou de simples spectateurs) ne veulent pas de ca (même s'il ne savent pas ce que c'est, ils ont des yeux et un ressenti).

Source basse trop forte : ce que cela provoque...

Capture d’écran 2016-09-25 à 14.26.20

Mettre trop d'éclairage provenant du bas (soit avec un réflecteur, soit par réflexion du sol ou d'un vêtement, soit avec une autre source) est une erreur assez fréquente qui a deux conséquences majeures : 

 

  • Le cou parait visuellement plus gros. Habituellement le cou présente une zone plus claire à l'avant et s'assombrit graduellement vers les cotés. En éclairant trop fort, le "cylindre" du cou devient "plat" car les ombres qui formaient le volume et le relief ont disparu. Sur une image 2D, le cerveau interprète ça comme un "cou plat, large et massif". Egalement, le cou donne l'impression de faire quasiment la même largeur que la tête...

 

  • Le menton se confond avec le cou. Habituellement le cou est plus sombre, et possède une ombre portée produite par le menton, ce qui pour le cerveau dans une image 2D veut dire "plus loin". Le plan du menton et celui du cou paraissent bien séparés. En éclairant trop fort, la lumière sur le menton et sur le cou est identique, ce qui contribue a confondre les plans menton / cou (voir a faire disparaitre les limites du menton). Par ailleurs il y a un illogisme sur le fait que l'ombre portée n'est plus présente, alors que la keylight elle, a bien produit cette ombre.

 

L'image ci-dessus illustre ces deux points. Même si a gauche ce défaut d'éclairage (source basse trop forte) n'est pas très marqué il est tout de même génant. A droite, une correction (correspondant +- à une diminution de -1IL sur la source basse) a été faite dans Photoshop (par Dodge & Burn), ce qui restaure la vision du cou, telle qu'on l'a sous un éclairage naturel (celui du soleil)

 

Méfiez-vous donc des "techniques" et "workshops" qui poussent à "sur éclairer" le cou. En ce qui me concerne, je n'ai jamais vu aucun Maitre de la photographie utiliser un tel procédé. Il y à surement une raison ;)

Mesurer l'exposition au flashmètre en studio

B0008645_1500_17_06_17

N°4 de la série sur l'Exposition

Voici 3 visualisations d'une même photo faite en studio

 

La photo a été exposée avec un flashmètre, de manière à ce qu'elle soit optimisée pour le numérique (exposition "à droite"). Ces images parlent d'elles mêmes...

Voici pour commencer, une photo du LCD pour montrer ce qu'il affiche à la PDV. L'écrétage est affiché en noir. On voit que l'appareil photo indique une forte surexposition

- Au boitier : ƒ/4, 80 Iso

- Au Flashmètre : ƒ/6,3
- Décalage d'expo (optimisation de l'expo pour le numérique) : +1,33 IL

20046536_1892830537650821_208347851588126246_n

Curseurs à Zero : Aucune zone n'est écrétée, ni même surexposée

Accessoirement, les valeurs claires de l'histogramme sont parfaitement calées sur la droite du graphique

20139980_1892829947650880_2509660700083559340_n

La photo Finale après développement (en noir et blanc)

B0008655Copie 1_1500_17_06_17

image (exagérément) éclaircie jusqu'a l'écrétage réel

20108633_1892830080984200_2290842651491069790_n

Conclusion : 

 

  • Une image "exposée à droite", avec une optimisation de +1,33 IL au flashmètre n'est ni surex, ni cramée.
  • Une fois exposée correctement, il reste encore une marge confortable d'éclaircissement au développement (pratique pour les HighKeys notamment)
Images protegées