Menu
jeuxvideo.com / Actualités à la une / Derniers dossiers / Test des GeForce RTX 2070, 2080 et 2080 Ti : La génération Turing est en marche /

GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR - Test des GeForce RTX 2070, 2080 et 2080 Ti : La génération Turing est en marche

Page Dossier
GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR
GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR
PC
Partager sur :

Le rendu HDR n'était pas vraiment au centre de la communication de NVIDIA lors du lancement des GeForce RTX, et pourtant, on ne le répètera jamais assez : cette technologie, lorsqu'elle est correctement exploitée, représente à elle seule un gain visuel considérable pour le joueur. Or, NVIDIA présentait un certain déficit dans ce domaine, par rapport à la concurrence. Un déficit que la marque a cependant comblé avec sa nouvelle génération de cartes.

De quoi parlons-nous exactement ? Tout simplement d'un article publié en juin dernier par nos confrères de Computer Base, qui pointait des baisses de performances sensibles sur les produits GeForce GTX lorsque le rendu HDR était activé sur certains jeux compatibles. Des pertes que l'on ne constatait pas sur les produits Radeon concurrents, et qui pouvaient monter jusqu'à 10% du frame rate selon les cartes et les jeux testés, ce qui est loin d'être négligeable.

GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR

A l'époque, nous n'avions pu nous pencher sur la question, mais le lancement de cette nouvelle génération de carte RTX était l'occasion de remettre les choses à plat à ce niveau et de voir :1- Si ces baisses de performances sont toujours d'actualité sur les GeForce de série 10 et 2- Si ces problèmes touchent également la nouvelle génération. Rappelons avant de parler chiffres en quoi consiste le rendu HDR : pendant longtemps, les images que nos écrans nous renvoyaient respectaient le format SDR. Ce format était encadré par différentes spécifications ayant trait à la profondeur d'échantillonnage, ou à la courbe de gamma de l'image. Problème : le rendu SDR ne couvre qu'une faible portion de ce que l'oeil humain est capable de lire en termes de nuances de couleurs ou de variations de contraste, et par ailleurs, les technologies de captation de l'image ayant largement évolué, il représente aujourd'hui un nivellement par le bas de la qualité des contenus pour le consommateur final. Aussi depuis quelques années, l'ensemble de l'industrie pousse pour la généralisation d'un format plus qualitatif pour les afficheurs modernes, le HDR. Avec ce nouveau standard, nous devrions profiter de couleurs et de contrastes autrement plus nuancés que ce que le format SDR propose aujourd'hui. Et si l'on se base sur les différentes démonstrations auxquelles nous avons pu assister ces dernières années, nous ne pouvons que confirmer cette assertion : difficile de revenir en arrière une fois qu'on y a gouté, tant l'image SDR parait délavée en comparaison de son équivalent HDR.

Maintenant, aussi intéressante soit elle pour le joueur, la mise en place du HDR n'est pas une chose facile. Pour qu'elle soit efficacement exploitée en jeu, cette forme de rendu nécessite une intégration à différents niveaux : au niveau du système d'exploitation, au niveau du jeu lui-même, au niveau de l'afficheur, comme au niveau du GPU. Et chacun de ses aspects dépendant d'un ou plusieurs acteurs industriels, il y a un vrai défi à relever pour s'assurer que tout le monde travaille bien dans la même direction. C'est du reste ce qu'il était ressorti de notre dernière expérience en matière de rendu HDR : en fonction des jeux, le support de ce format d'affichage était d'une qualité variable, sur PC tout du moins.

GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDRGeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR

Maintenant que le décor est posé, revenons à ces fameux soucis de performances. Sont-ils toujours d'actualité ? Sur les cartes de série 10, oui, même si nos mesures n'ont pas permis de retrouver des décalages allant jusqu'à 10%. Toutefois, si l'on prend l'exemple de Shadow of War, la baisse de frame rate due à l'activation du rendu HDR varie de 5 à 7% tout de même. Sur le dernier opus de la série Tomb Raider, on est plutôt sur 1 à 2% de pertes. Enfin, chez Ubisoft, le frame rate d'Assassin's Creed Origin diminue de 3 à 4% avec le rendu HDR, tandis que Far Cry 5 limite la casse avec des chiffres en retrait de 1 à 2% seulement. Quoi qu'il en soit, la tendance est bel et bien là.

GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDRGeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR

Côté RTX, on constate néanmoins que la situation s'améliore grandement. Les écarts sont inférieurs au pourcent, écarts dont on peut dès lors aisément arguer qu'ils rentrent dans notre incertitude de mesure. Le problème du HDR semble donc solutionné pour cette nouvelle génération Turing. En parallèle, nous avons profité de nos différents essais pour vérifier où en était le HDR, en termes de qualité de rendu. Notamment, nous avions à notre disposition un écran Asus ROG Swift PG27UQ. Or, notre précédente expérience s'était déroulée sur un afficheur Samsung C49HG90 doté d'un rétroéclairage Edge LED. Une technologie qui montre quelques limites lorsqu'il s'agit de reproduire une image HDR. L'écran ROG, quant à lui, intègre un rétroéclairage Full Local Dimming sur 384 zones, ainsi qu'une dalle Quantum-dot IPS.

GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR

Alors certes, le ROG Swift PG27UQ coûte la modique somme de 2500€. Mais voilà : il est bien plus représentatif de ce que le rendu HDR a à offrir, que l'écran Samsung. Exit la tendance à la surexposition que nous constations dans Far Cy 5, au placard l'aspect anormalement délavé d’Assassin’s Creed Origins ou de Shadow Warrior 2. Les quelques jeux que nous avons lancés nous ont fait bénéficier d'images absolument magnifiques, preuve que l'impact du rendu HDR reste pour beaucoup une affaire de qualité d'écran. Pour autant, il restait quelques impondérables dépendant des jeux ou de l'OS : par exemple Shadow of the Tomb raider n'active son mode HDR que sous DirectX 12. Une exception. On constate aussi toujours sous Windows des éléments de bureau qui apparaissent gris et non blancs. Et le mode HDR supporte encore très mal les overlays comme ceux appliqués par FRAPS, ou Afterburner.

Quoi qu'il en soit, retenez que si le HDR vous intéresse, les RTX apportent effectivement une gestion plus efficace de ce mode de rendu, même si on parlera ici plus de la correction d'une situation anormale que d'une véritable avancée technologique.

Mis à jour le 26/11/2018 à 16:34
PC

COMMENTAIRES

Vous devez être connecté pour poster un commentaire.
Pseudo supprimé
le 04 déc. 2018 à 09:14

Je reçoit ma RTX 2080 TI EVGA black edition gaming demain acheté au prix de 1219 euros avec le jeu battlefield 5 meme si je l ai déjà dans mon abonnement origin access premier, j ai donc revendu mon sli avec pont nvidia HB, une des mons chères et bien performantes en customs cette 2080 TI avec 3 carénages (noir, blanc et rouge) différents et RGB ++ Hypé….à mort….Battlefield 5 en 2 k (1440p) + ray tracing ou bien 4 k full ultra hdr 10 dans tous les jeux il faut choisir....bon je sors, je sais j euphorise un peu trop…..

Lire la suite...
Pseudo supprimé
le 27 nov. 2018 à 18:18

Pour moi j attend la veritable 4k (4096 X 2160) si un jour elle sort ? pas celle qu on essaie de nous vendre (fausse 4k sur laquelle je joue quand meme avec un sli de gtx 1080 mais qui ressemble plus un surechantillonage ou antialiasing) et un véritable HDR 12 bit et non pas 10 ou 10+ ni dolby vision (pour les blu ray ultra hd) qui sont que du maketing purement commercial (pas les blu-ray mais les appellations à mon gout avec une petite augmentation (80 % max) pour faire croire au spectre de l oeil humain mais loin des 99 voir 100 % du spectre que l on est capable de voir avec nos yeux pour moi ces HDR sont trop flashy si vous voyez de quoi je parle des fois je le désactive sur ma config pour garder que la "fausse 4 k" et une image limite plus naturel. Surtout quand on voie le prix d un soit disant rétroéclairage oled ou pire qled qui ne sont que de la poudre aux yeux pour les TV en tous cas pour les moniteurs je joue sur un 1440 ips "2k" de 1 ms de temps de réponse là par contre c est du vraie pour la rapidité très rare sur dalle ips qui ont de base de meilleurs contraste et couleurs qu une dalle tn par exemple après il y a aussi les dalles va et autres ecran de pc…...on en finiras jamais avec ces "technologies".

Lire la suite...
Lyrops
Lyrops
MP
le 27 nov. 2018 à 17:27

J'aimerais que quelqu'un qui s'y connait vraiment dans cette technologie HDR m'explique précisément en quoi ça consiste réellement dans le cadre d'un rendu GPU car depuis que j'en entends parler j'ai un énorme doute.

Je suis graphiste VFX pour une boite d'effets spéciaux dans le cinéma et j'utilise tout les jours cette fameuse technique "HDR", la même que celles dont les constructeurs ont l'air de vouloir nous vendre avec les TV et GPU HDR. Une image HDR ou "high dynamic range" est une image dans un format spécial stockant en effet les couleurs avec bien plus de précision. Une image en temps normal est codée avec 3 canaux R,V,B en 8 bits pouvant stocker chacun 256 niveaux de gris, combinés donnant 256^3 16 millions de couleurs.
Une image HDR permet de stocker une image non pas sur 8 bits mais sur 16 voir 32 bits, ce qui démultiplie de façon exponentielle le nombre de couleurs différentes possible pour une image (280 000 milliards de couleurs pour le 16 bits et flemme de faire le calcul pour la 32).

L’intérêt de ce genre de fichier est de pouvoir avoir des informations bien plus détaillées dans les zones surexposées et dans les zones sombres (les photographes reconnaîtront les images raw) et également une précision bien plus accrue des couleurs dans les dégradés. Mais cela se traduit au niveau du codage, quand on rentre dans les variables à l’intérieur du fichier, par exemple une valeur de gris qui oscillait pour schématiser entre 0 et 0.1 oscillera cette fois entre 0.00001 et 0.00002, d'où la précision et le nombre de couleur "égalant la performance de l'oeil humain"

Mon gros problème avec ce qu'essayent de nous vendre les constructeurs est que toutes les images qu'on peut voir avec cette 'technologie" sont toujours des images avec .. plus de contraste. La même chose qu'avec cet "effet HDR" qu'on peut trouver sur les smartphones. Cela mime la technique photographique qui consiste à créer un fichier HDR que l'on aura constitué avec des photographies à des expositions différentes puis grâce aux infos gagnées dans les highlights et les shadows, contraster à fond et faire apparaitre en même temps les zones qui seraient surexposées et les zones qui serait noires dans l'images finale. Exportée en jpg 8 bits pour être affichée sur internet.

Quel est réellement cette technologie HDR dans les TV ? L'image finale est projetée en 16 bits ? Ces images sont exponentiellement plus volumineuses et lourdes à traiter par un GPU, et l’intérêt ici serait uniquement d'avoir de beaux dégradés à l'écran, d'éviter un "effet escalier" qui apparaît lorsque l'on a des dégradés parfaits avec une image en 8 bits mais en aucun cas un contraste ni des "couleurs" améliorées... En tout cas rien qui ne pourrait être fait par un effet post traitement de simple correction colorimétrique, et c'est exactement l'impression que donne chaque image vendue comme "rendue en HDR".

Lire la suite...
Felon2
Felon2
MP
le 27 nov. 2018 à 11:07

A moins que je n'ai loupé quelque chose, comment se fait-il que les performances de la 1080ti soient plus basses que la 1080, et pareil pour al 2070 et la 2080ti ? Et l'écart même de performances devrait être plus grand :/.

Lire la suite...
Top commentaires
Felon2
Felon2
MP
le 27 nov. 2018 à 11:07

A moins que je n'ai loupé quelque chose, comment se fait-il que les performances de la 1080ti soient plus basses que la 1080, et pareil pour al 2070 et la 2080ti ? Et l'écart même de performances devrait être plus grand :/.

Lire la suite...
Lyrops
Lyrops
MP
le 27 nov. 2018 à 17:27

J'aimerais que quelqu'un qui s'y connait vraiment dans cette technologie HDR m'explique précisément en quoi ça consiste réellement dans le cadre d'un rendu GPU car depuis que j'en entends parler j'ai un énorme doute.

Je suis graphiste VFX pour une boite d'effets spéciaux dans le cinéma et j'utilise tout les jours cette fameuse technique "HDR", la même que celles dont les constructeurs ont l'air de vouloir nous vendre avec les TV et GPU HDR. Une image HDR ou "high dynamic range" est une image dans un format spécial stockant en effet les couleurs avec bien plus de précision. Une image en temps normal est codée avec 3 canaux R,V,B en 8 bits pouvant stocker chacun 256 niveaux de gris, combinés donnant 256^3 16 millions de couleurs.
Une image HDR permet de stocker une image non pas sur 8 bits mais sur 16 voir 32 bits, ce qui démultiplie de façon exponentielle le nombre de couleurs différentes possible pour une image (280 000 milliards de couleurs pour le 16 bits et flemme de faire le calcul pour la 32).

L’intérêt de ce genre de fichier est de pouvoir avoir des informations bien plus détaillées dans les zones surexposées et dans les zones sombres (les photographes reconnaîtront les images raw) et également une précision bien plus accrue des couleurs dans les dégradés. Mais cela se traduit au niveau du codage, quand on rentre dans les variables à l’intérieur du fichier, par exemple une valeur de gris qui oscillait pour schématiser entre 0 et 0.1 oscillera cette fois entre 0.00001 et 0.00002, d'où la précision et le nombre de couleur "égalant la performance de l'oeil humain"

Mon gros problème avec ce qu'essayent de nous vendre les constructeurs est que toutes les images qu'on peut voir avec cette 'technologie" sont toujours des images avec .. plus de contraste. La même chose qu'avec cet "effet HDR" qu'on peut trouver sur les smartphones. Cela mime la technique photographique qui consiste à créer un fichier HDR que l'on aura constitué avec des photographies à des expositions différentes puis grâce aux infos gagnées dans les highlights et les shadows, contraster à fond et faire apparaitre en même temps les zones qui seraient surexposées et les zones qui serait noires dans l'images finale. Exportée en jpg 8 bits pour être affichée sur internet.

Quel est réellement cette technologie HDR dans les TV ? L'image finale est projetée en 16 bits ? Ces images sont exponentiellement plus volumineuses et lourdes à traiter par un GPU, et l’intérêt ici serait uniquement d'avoir de beaux dégradés à l'écran, d'éviter un "effet escalier" qui apparaît lorsque l'on a des dégradés parfaits avec une image en 8 bits mais en aucun cas un contraste ni des "couleurs" améliorées... En tout cas rien qui ne pourrait être fait par un effet post traitement de simple correction colorimétrique, et c'est exactement l'impression que donne chaque image vendue comme "rendue en HDR".

Lire la suite...
Sommaire Dossier
  • Turing : Une architecture GPU tournée vers l'avenir
  • GeForce RTX 2070, 2080 et 2080 Ti : Présentation des cartes
  • Déroulé de notre protocole de test
  • GeForce RTX 2070, 2080 et 2080 Ti : Bilan sur les performances 3D
  • GeForce RTX 2070, 2080 et 2080 Ti : Le ray tracing et le cas Battlefield V
  • GeForce RTX 2070, 2080 et 2080 Ti : Le point sur le rendu HDR
  • GeForce RTX 2070, 2080 et 2080 Ti : Bilan sur les performances environnementales
  • GeForce RTX 2070, 2080 et 2080 Ti : Le point sur l'overclocking
  • La RTX 2080 FE face à ses concurrentes : Test du modèle PNY XLR8 OC Twin Fan
  • La RTX 2080 Ti FE face à ses concurrentes : Test du modèle Zotac AMP Edition
  • La RTX 2080 Ti FE face à ses concurrentes : Test du modèle Asus RoG STRIX (O11G)
  • GeForce RTX 2080 et 2080 Ti : 2 produits solides qui gardent des atouts dans leurs manches