Si vous vous intéressez un tant soit peu aux avancées technologiques, il est probable que vous ayez déjà croisé le terme HDR, en particulier dans le domaine de la vidéo et peut-être aussi de la photographie. Cependant, comme de nombreuses personnes, vous n’avez peut-être pas saisi toute l’importance de cette technologie, qui reste assez rare sur les équipements de bureau mais qui est devenue très répandue sur les appareils mobiles.
Le principal obstacle réside souvent dans la terminologie utilisée. Vous pourriez argumenter : « le HDR, oui je vois, c’était déjà sur mon iPhone 4 » ou « le HDR, ça me rappelle, c’était dans Half-Life 2: Lost Coast en 2005 ». Et vous n’auriez pas tort : l’acronyme HDR, pour High Dynamic Range ou « plage dynamique élevée », a été utilisé de diverses manières pour désigner simplement une amélioration de la plage dynamique. Mais dans cet article, nous nous concentrerons sur la technologie appliquée aux moniteurs, qui vise précisément à améliorer la qualité visuelle de ce que nous observons.
Les écrans de nos dispositifs présentent une faible plage dynamique
Abordons d’abord l’aspect le plus promu du HDR : la plage dynamique, directement liée à la luminosité. Pour saisir les bénéfices, il est essentiel de partir d’un constat : les écrans de nos dispositifs offrent une plage dynamique très limitée.
Un avertissement pour la suite : les illustrations ne mettront pas en évidence les avantages du HDR pour plusieurs raisons. La principale est que la plupart d’entre vous ne disposent probablement pas d’un écran HDR. La seconde, c’est que la majorité des formats d’image utilisés sur Internet ne supportent pas le HDR.
Dans le monde réel, la luminosité du soleil au zénith peut atteindre 1 600 000 000 cd/m² (candela par mètre carré1, l’unité la plus couramment utilisée) et la valeur minimale est d’environ 0,000400 cd/m², lors d’une nuit très sombre. Si nous prenons ces deux valeurs extrêmes, nous obtenons ce qu’on appelle la plage dynamique, c’est-à-dire la différence entre la valeur la plus basse et la plus haute.
Ensuite, considérons l’œil humain, qui ne possède pas une plage dynamique aussi étendue. Comme vous le savez, il est déconseillé de regarder directement le soleil car cela pourrait endommager votre rétine. Pratiquement, la limite réelle est d’environ 100 000 000 cd/m² (au-delà, des dommages peuvent survenir) et une valeur maximale généralement acceptée est de 100 000 cd/m². La valeur minimale, quant à elle, dépend en réalité de la luminosité ambiante. Notre iris agit comme l’objectif d’un appareil photo et s’ajuste en fonction de la luminosité environnante. Avec une luminosité élevée (100 000 cd/m²), la valeur minimale perçue est d’environ 1 cd/m². Dans un environnement plus sombre (1 000 cd/m²), elle peut descendre à 0,01 cd/m². En simplifiant, la dynamique est d’environ 100 000 entre la luminosité la plus élevée et la plus faible que nous pouvons percevoir. Le point le plus lumineux perceptible est donc 100 000 fois plus brillant que le point le moins lumineux encore discernable.
Après le monde réel et nos yeux, il y a les écrans. Un moniteur d’ordinateur standard affiche une luminosité d’environ 400 cd/m², et avec une dalle IPS, une luminosité minimale assez élevée, soit 0,4 cd/m² (ce qui correspond à un taux de contraste de 1000:1). Un écran de cinéma, lui, se situe plutôt autour de 50 cd/m², alors qu’un bon téléviseur HDR moderne (nous y reviendrons, ne vous inquiétez pas) oscille entre 1 000 et 1 500 cd/m²2. Les appareils mobiles possèdent des spécifications similaires, avec par exemple 1 600 cd/m² sur un iPhone 16 Pro.
Vous le voyez, nos écrans ne nous présentent qu’une version très réduite de la réalité, limitée par la technologie et par nos capacités visuelles, et le but du HDR est de nous offrir une version plus large et donc plus fidèle de la réalité.



