FREN

#FF00AA


16 fév. 2006

Photographie HDR

@photo@

Ca fait quelques jours que le lien du pool HDR sur Flickr circule un peu partout sur le web, alors je me suis dit que ce serait une bonne occasion de ressortir mon appareil photo de la naphtaline pour faire quelques essais.

Le HDR (high dynamic range) consiste, en gros, à stocker dans un fichier image beaucoup plus d’informations que l’écran d’un ordinateur ne peut en afficher. Un fichier bitmap normal (par exemple un JPEG créé par Photoshop ou par un appareil photo) stocke chaque pixel comme une série de trois valeurs de 8 bits (pour le rouge, le vert et le bleu) qui, une fois combinées, donnent la couleur du pixel — ce qui fait 16 millions de couleurs différentes, et c’est déjà plus que les écrans moyens ne peuvent vraiment afficher. Un fichier RAW sorti d’un appareil photo stocke généralement 10 à 12 bits par pixel — ça donne quatre à huit fois plus (un bit de plus = deux fois plus de valeurs possibles) de définition (je ne parle pas de résolution, mais des informations sur la luminosité — en fait, la résolution elle-même, le nombre de pixels, est trois fois plus faible, si j’ai bien compris, mais ce n’est pas la question), et c’est pourquoi il est recommandé de travailler en RAW quand on a assez de place mémoire, parce que ça permet de corriger l’exposition des photos après-coup et de faire ressortir des détails dans les zones claires ou sombres qui auraient été perdus si l’appareil avait enregistré directement en JPEG. Enfin, dans une image HDR, les pixels sont généralement composés de trois valeurs sur 16 ou 32 bits, à virgule flottante au lieu d’entiers, ce qui veut dire qu’elles peuvent aller de zéro (noir total) à l’infini (supernova) plutôt que de plafonner d’un côté ou de l’autre (avec des zones complètement blanches parce qu’il y a trop de lumière).

Bon, d’accord, c’est fascinant (ou pas), mais quelles implications ça a dans le monde réel ? C’est simple : pour reprendre l’exemple le plus courant, si vous êtes dans une cathédrale et que vous voulez prendre une photo de la lumière passant par les vitraux, soit les vitraux ressortiront tout blancs, soit l’intérieur de la cathédrale sera noir, selon le sujet qu’aura choisi de privilégier l’appareil photo ou le photographe. Un simple bitmap ne peut pas contenir le contraste entre la lumière du jour et les ombres d’un bâtiment clos (c’est aussi la raison pour laquelle un paysage photographié à la va-vite ressort souvent avec un ciel délavé) ; une image HDR, si :

Un minute : c’était un JPEG, il était affiché sur mon moniteur, comment ça pouvait être du HDR ? Eh bien, ce n’en était pas, justement : une image HDR peut théoriquement stocker tout le contraste qu’est capable de produire le monde réel, mais il n’y aucun moyen de le reproduire. Il faut nécessairement convertir l’image en quelqeu chose d’affichable par un écran d’ordinateur (il y a des écrans HDR, mais ça reste une approximation — à moins d’enfermer une étoile dedans, un écran ne pourra jamais produire autant de lumière que le soleil). Mais le HDR a tout de même une utilité (outre le floutage photo-réalistique dans Half Life 2) : toutes ces données qu’on ne peut pas afficher sont quand même dans l’ordinateur, donc on peut s’en servir pour améliorer les détails des zones claires et sombres des photos, et jouer avec les réglages jusqu’à obtenir la meilleure photo imaginable de cette cathédrale, où tout soit aussi clairement visible et détaillé que possible.

Alors, puisqu’un appareil photo ne code les pixels que sur 10 ou 12 bits, comment on fait une vraie photo HDR ? Tout simplement en prenant plusieurs photos avec des expositions différentes : une mettant en valeur les vitraux, une pour les détails sur les murs, et une ou plusieurs dans l’intervalle (du coup c’est uniquement applicable aux paysages et natures mortes, pas aux portraits ou aux photos en mouvement, à moins de trouver, construire, ou inventer un appareil photo HDR). Assemblez-les, et voilà. Enfin, non : ça, c’était la partie facile. Maintenant il faut convertir l’image HDR en un JPEG, et c’est là que ça donne mal à la tête.

Dans la suite de cet article je détaille un peu le procédé et poste des exemples réalisés avec la fonctionnalité “Merge to HDR” de Photoshop CS2 et avec Photomatix. Spoilers : les résultats sont pour la plupart assez décevants.

Il semble qu’il y ait deux options principales pour assembler des photos en une image HDR : Photomatix Pro (99 $, démo entièrement fonctionnelle avec filigranes) et Photoshop CS2 (69 $, heh, démo 30 jours). Les deux sont disponibles sous Windows et OS X, et fonctionnent de la même façon : sélectionnez les photos de départ, et après un moment une photo s’affichera avec une image HDR moche comme tout, parce que c’est du HDR affiché sur votre moniteur pas HDR. (Pour une raison qui m’échappe ni l’un ni l’autre ne peut importer directement une série de fichiers RAW, alors qu’il me semble que ce serait la meilleure façon d’obtenir un maximum d’information. Photomatix propose de créer un fichier HDR à partir d’un seul fichier RAW, mais il me semble que ça doit forcément donner moins de données qu’une série de TIFF de plusieurs expositions — parce que, comme je le disais au-dessus, les fichiers RAW contiennent déjà plus d’informations qu’un bitmap 8-bits ne peut en gérer — et on peut faire la même chose sous Photoshop en créant d’abord des photos avec des expositions différentes à partir du même fichier RAW.) Au passage, si vous avez Photoshop CS2 sur votre disque dur (parce que vous l’avez acheté, par exemple, peut-être), ça se trouve dans le menu File / Automate / Merge to HDR.

Comme je le disais, le plus important, maintenant, est de convertir votre fichier HDR en un bitmap normal, affichable — en d’autres termes, développer la photo, comme quand on utilise le logiciel de gestion RAW d’un appareil photo, mais avec un contrôle bien plus précis. (Photoshop permet aussi d’appliquer certains filtres aux images HDR, pour obtenir je suppose un résultat plus précis et réaliste que si on travaille après la conversion, mais j’ai arrêté de m’y intéresser quand j’ai vu que “Lens Blur” n’était pas disponible.)

Voilà les images avec lesquelles j’ai essayé :

Trois photos de ma chambre, avec un soleil modéré (on est en février) de l’autre côté de la fenêtre, faites avec le bracketing de mon PowerShot G3 sur un mini-trépied (bien que les deux programmes proposent d’essayer d’aligner les photos automatiquement, le tripod est tout bonnement obligatoire). C’est le test le plus dur (enfin, ça le serait si c’était l’été) : l’extérieur et l’intérieur sont très contrastés, les délimitations sont très nettes, et il y a beaucoup de détails à préserver de part et d’autre — tout le contraire du simple paysage + ciel de la plupart des exemples.

Voilà ce que j’obtiens des différentes options de Photomatix :

(Comme vous le voyez, certains modes — pas certainement les pires — ne mettent pas de filigrane, donc ça peut être intéressant d’installer Photomatix Pro même si vous ne comptez pas l’acheter.)

C’est moche ? Ouais. C’est vrai qu’il y a plus d’informations — on voit plus de détails que dans la photo du milieu à l’origine — mais l’image n’a aucun relief.

Et voilà les résultats de Photoshop (il faut passer par Images / Mode / 8 Bits/Channel) :

Pas très joli non plus.

 

Et si on essayait avec plus d’images intermédiaires ? Peut-être que trois expositions différentes, ça ne suffit pas.

Voilà le mieux que je puisse obtenir avec ça (Photomatix en haut, Photoshop en bas) :

On ne peut pas dire que je sois impressionné. On peut même dire que je suis bien déçu. Je pourrais certainement améliorer un peu les réglages, et utiliser les calques Photoshop pour réinjecter un peu de la vie des photos originales, et puis je suis parti des photos les plus banales du monde, mais ce procédé tend visiblement plutôt à augmenter le facteur banalité des photos.

 

Alors, essayons quelque chose de plus simple, et d’un peu plus joli, un bon vieux paysage avec ses nuages dans le ciel :

Photoshop, avec la méthode “Exposure and Gamma” :

Avec de grosses retouches je pourrais sûrement en tirer quelque chose, mais ça ne vaudrait pas trop la peine.

Photoshop, méthode “Local Adaptation” avec des ajustements sur les courbes, et la photo d’origine en surimpression dans un casque “Color” pour raviver un peu tout ça :

Ouais, c’est vaguement utilisable.

Photomatix, en réduisant “Strength” à 10 et en augmentant un peu “Color Saturation” :

Ok, ça va aussi.

Et maintenant, ça devient intéressant, Photomatix en remettant “Strength” à 100 :

Ah, oui. Là, c’est joli. Il y a une présence. Ca me rappelle Vidocq. On dirait un tableau. Et c’est bien le problème : c’est complètement irréel. Normal, nos yeux ne voient jamais les choses de cette façon ; ce qui n’est pas normal, en revanche, c’est le gros halo sombre autour du ciel.

Ce n’est pas une ombre naturelle, ce n’est pas normal : c’est juste une conséquence désagréable de leur algorithme — retournez voir les sources pour vérifier. Et c’est pour ça que ça marche tellement mieux sur les simples paysages, avec des collines et des fleurs : on ne remarque pas ce genre de problème sur l’herbe d’une colline, on suppose que c’est juste le relief naturel.

 

Donc, en gros, on a le choix : soit on se retrouve avec les images les plus banales et les moins intéressantes du monde, soit on a une peinture irréelle avec des halos partout. Retournez sur le pool HDR et faites attention aux frontières entre les paysages et les ciels : il y a des halos sur la plupart. (Sans parler de ceux qui sont aussi moches que mes premiers essais, avec du gris partout.) C’est bien pour obtenir un résultat original et ostensiblement artificiel, mais ce n’est plus de la photographie.

 

Oh, et ce n’est pas que je ne sais pas m’en servir : la page de comparaison de Photoshop CS2 et Photomatix chez HDR Soft confirme que les images faites par Photoshop sont tristes, grisâtres, cliniques, alors que celles de Photomatix ont l’air peintes et sont pleines de halos.

 

The Luminous Landscape:

Toutes les images n’ont pas besoin d’avoir une amplitude de 10 ou 15 f-stops. En fait, la plupart des photos sont tout à fait réussies avec les 5 à 7 f-stops auxquels ont est habitués, merci. Je m’attends tout à fait à voir déferler des images idiotes ou même laides dans les mois à venir, quand les photographes recevront leurs Photoshop CS2 et se mettront à découvrir de quoi est capable la fonction HDR.

Mais, comme tout autre outil, entre les mains d’artistes sensibles et d’artisans compétents, je suis sûr qu’il nous permettra de voir le monde d’une façon nouvelle.

 

Je vais essayer de faire quelques photos en RAW dans les jours qui viennent et voir ce que peut en faire Photomatix, parce que ça donne un résultat marrant, mais je ne vais pas me mettre sérieusement au HDR.

Vous voulez savoir quand je poste du contenu sur mon blog ? Il suffit de vous inscrire gratuitement à un agrégateur RSS (Feedly, NewsBlur, Inoreader, …) et d'ajouter www.ff00aa.com à vos flux (ou www.garoo.net pour vous abonner à tous les sujets). On n'a pas besoin de newsletters, pas besoin de Twitter, le RSS existe toujours.

Mentions légales : ce blog est hébergé par OVH, 2 rue Kellermann, 59100 Roubaix, France, www.ovhcloud.com.

Les données des visiteurs de ce blog ne sont pas utilisées ni transmises à des tiers. Les posteurs de commentaires peuvent demander leur suppression par e-mail.

Tous contenus © de l'auteur ou couverts par le droit de citation.