Le HDR démystifié

De nos jours, nous entendons de plus en plus parler des téléviseurs 4K ou UHD (4 fois la résolution d’un téléviseur 1080p soit 8 millions de pixels vs 2 millions), surtout dans les grands formats de téléviseur. Nous vous proposons donc de clarifier la technologie HDR (High Dynamic Range) qu’on appelle en français imagerie à grande gamme dynamique.

Pour qu’un téléviseur puisse reproduire pleinement la norme HDR, il doit idéalement posséder un processeur d’image 10 bit.

Le processeur est le cœur du téléviseur, c’est lui qui va traiter le signal et en afficher le contenu. Un processeur 8 bit a la capacité d’afficher 256 nuances par couleur (rouge-bleu-vert), donc un peu plus de 16 millions de couleurs. Un processeur 10 bit à la capacité d’en afficher 1 024 par couleur, donc plus de 1 milliard de couleurs.

Le nombre de Nits, c’est-à-dire de chandelle au mètre carré, est un autre élément important. Plus le nombre de Nits est élevé, plus le téléviseur sera en mesure d’afficher la pleine capacité du HDR. Pour illustrer le propos, voici un exemple tout simple: prenons un pichet d’eau de 2 litres et un verre de 500 ml, lorsque vous versez le contenu du pichet dans le verre, il y a des pertes, le contenu du pichet est trop important par rapport à la capacité physique du verre. C’est la même chose avec les téléviseurs, lorsqu’un film HDR encodé à 1000 Nits est affiché dans un téléviseur qui n’a pas les capacités d’afficher 1000 Nits, il y aura également des pertes et vous n’aurez pas l’image originale que le réalisateur voulait vous montrer.

Bien sûr, pour afficher une telle quantité de couleurs, il vous faudra avoir le contenu visuel adéquat, l’appareil étant capable de le gérer, soit sur un lecteur Blu-ray 4K, signaux de télévisions, Netflix, Amazon, YouTube étant les plus utilisés, et que votre câble HDMI soit aussi compatible à laisser passer autant d’informations.

Au niveau des lecteurs Blu-Ray 4K, faites bien attention entre une conversion 4K et un lecteur 4K. Un lecteur Blu-ray standard à conversion 4K pourra simuler une image UHD sur un film 1080p mais ne pourra pas lire un vrai film tourné en 4K. Tout comme les signaux haute-définition au début des années 2000, le contenu est relativement modeste, mais ira en grandissant. Il ne s’agit pas d’une technologie passagère comme la télé 3D qui n’a eu qu’une durée de vie d’environ 4 à 5 ans.

Ci-dessous, voyez une image qui montre la différence du spectre de couleurs entre un signal HDTV et UHD 4K. Les couleurs que l’on voit dans ce diagramme sont celles que l’œil humain est en mesure de percevoir. Comme vous remarquez, le triangle noir qui représente le signal 4K utilise près de 70% de notre capacité à voir les couleurs. Les nuances de couleurs y seront beaucoup plus présentes tout comme le contraste que le triangle jaune qui représente un signal HDTV.

HDR