CONNEXION
  • RetourJeux
    • Tests
    • Soluces
    • Previews
    • Sorties
    • Hit Parade
    • Les + attendus
    • Tous les Jeux
  • RetourActu
    • Culture Geek
    • Astuces
    • Réalité Virtuelle
    • Rétrogaming
    • Toutes les actus
  • RetourHigh-Tech
    • Actus JVTECH
    • Bons plans
    • Tutoriels
    • Tests produits High-Tech
    • Guides d'achat High-Tech
    • JVTECH
  • RetourVidéos
    • A la une
    • Gaming Live
    • Vidéos Tests
    • Vidéos Previews
    • Gameplay
    • Trailers
    • Chroniques
    • Replay Web TV
    • Toutes les vidéos
  • RetourForums
    • Hardware PC
    • PS5
    • Switch
    • Xbox Series
    • Overwatch 2
    • FUT 23
    • League of Legends
    • Genshin Impact
    • Tous les Forums
  • Smartphone et Tablette
  • Mobilité urbaine
  • Hardware
  • Image et son
  • WEB 3.0
  • Bons Plans
En ce moment Genshin Impact Valhalla Breath of the wild Animal Crossing GTA 5 Red dead 2
Créer un contenu
News JVTech GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests
Profil de Kracou,  Jeuxvideo.com
Kracou - Journaliste jeuxvideo.com

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Ça y est, elles sont là, les nouvelles GeForce RTX sont enfin en notre possession. Malheureusement, il va nous falloir quelques jours, au mieux, pour savoir exactement ce qu’elles ont dans le ventre. Et en attendant de pouvoir faire parler les chiffres et de voir si ces nouveaux bolides graphiques sont à la hauteur de l’investissement qu’ils demandent, nous vous proposons de découvrir dès maintenant les évolutions technologiques qui vont caractériser l’architecture Turing, au cœur de ces nouvelles cartes RTX.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Certes, la lecture des pages qui vont suivre s’annonce forcément ardue, puisque l’on y abordera nombre de concepts éminemment techniques. Mais elle n’en représente pas moins un préambule intéressant, qui pourra notamment vous éclairer sur la polémique qui a suivi l’annonce de ces nouveaux produits. Rappelons ainsi qu’au sortir de la gamescom, de nombreuses voix se sont alarmées devant les spécifications des cartes de série 20. Pour vous donner quelques éléments de comparaison, entre une GTX 980 Ti et une GTX 1080 Ti, le nombre de cœurs CUDA avait bondi de 28% tandis que la fréquence GPU avait pris un bonus de plus de 40%. Si l’on descend d’un niveau de gamme, et que l’on compare GTX 980 et GTX 1080, on retrouve une tendance similaire : +25% côté cœurs CUDA et +42% côté fréquence, d’une génération à l’autre. Si l’on revient au cas qui nous intéresse aujourd’hui, la GeForce RTX 2080 Ti compte 4352 cœurs CUDA pour une fréquence de fonctionnement maximale de 1635 MHz, soit +21% dans un cas, et un petit +7% dans l’autre. Le cas de la RTX 2080 est encore plus parlant : un saut de puce côté unités CUDA, +15%, tandis que la fréquence ne monte que de 4% face à la GTX 1080.

GTX 1070RTX 2070GTX 1080RTX 2080GTX 1080 TiRTX 2080 Ti
Architecture / GPUPascal GP104Turing TU106Pascal GP104Turing TU104Pascal GP102Turing TU102
Process de gravure16 nm12 nm FFN16 nm12 nm FFN16 nm12 nm FFN
Nombre de transistors7.2 milliards10.8 milliards7.2 milliards13.6 milliards12 milliards18.6 milliards
Taille du die314 mm²445 mm²314 mm²545 mm²471 mm²754 mm²
Blocs SM153620462868
CUDA Core192023042560294435844352
Tensor CoreNA288NA368NA544
RT CoreNA36NA46NA68
ROPs646464648888
TMU120144160184224272
GPU Base Clock150614101607151514801350
GPU Boost Clock (*)1683 / 16831620 / 17101733 / 17331710 / 18001582 / 15821545 / 1635
Mémoire8 Go GDDR58 Go GDDR68 Go GDDR5X8 Go GDDR611 Go GDDR5X11 Go GDDR6
Fréquence mémoire8 Gbps14 Gbps10 Gbps14 Gbps11 Gbps14 Gbps
Bus mémoire256 bits256 bits256 bits256 bits352 bits352 bits
Tarifs de lancement (Version FE, Hors taxes)449$599$699$799$699$1199$

(*Reference / Founders Edition)

A la lumière de ces premiers chiffres, on peut comprendre l’inquiétude des utilisateurs, qui ont dû se demander où étaient passés les gains liés à l’amélioration (certes légère mais quand même) de la finesse de gravure, annoncée à 12 nm. C’est en cela que l’explication de texte qui va suivre est importante, puisqu’elle va permettre de présenter les bases d’une architecture Turing qui n’entend plus faire reposer sa force sur un schéma traditionnel défini par un nombre de cœurs CUDA, une fréquence de fonctionnement et une finesse de gravure. Elle mise notamment sur de nouvelles formes de rendu, qui feront appel au ray tracing ou aux applications de deep learning. Des éléments, qui au moins sur le papier, ont le potentiel de contrebalancer la faiblesse des chiffres cités plus haut.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Cependant, n’allons pas trop vite en besogne. Nous parlerons RT Core et Tensor Core un peu loin. Pour l’instant, concentrons-nous sur les modifications apportées aux blocs SM (pour Stream processor) qui sont dans la nomenclature NVIDIA les blocs fondamentaux qui vont constituer le cœur du GPU.

Le SM à la sauce Turing

Au sein des précédentes architectures Maxwell et Pascal, un bloc SM était schématisé de la manière suivante : on y trouvait quatre partitions qui chacune intégraient 32 Cœurs CUDA, un bloc SFU, des registres, 2 TMU, 8 unités Load/Store et deux unités d’expédition associées à un tampon d’instructions. Parallèlement, tous ces éléments présentaient un certain nombre de ressources partagées à différents niveaux : 96 Kb de mémoire et un cache d’instructions pour l’ensemble, et 4 TMU et un cache L1 de 24 Ko pour chaque paire de partitions. Sur la base de cette image, NVIDIA a opéré différents changements au sein de ses SM : la fin du doublement des unités d’expédition (dispatch units), la refonte du système d’ordonnancement, qui peut maintenant gérer jusqu’à 32 threads de manière indépendante, et la séparation des deux ALU qui constituaient auparavant les fameux cœurs CUDA : tandis qu’ALU FP32 et INT32 se trouvaient rassemblées au sein d’une même entité et ne pouvaient être sollicitées conjointement sous Maxwell et Pascal, elles profitent sous Turing d’une gestion complètement indépendante. Sur le schéma fourni par NVIDIA, cela se traduit par la mention de 64 Core FP32 et 64 Core INT32 par bloc SM Turing, en lieu et place de 128 cœurs CUDA sous Pascal. A cela s’ajoute un autre axe de travail : la révision du système mémoire qui rassemble maintenant au sein d’un même bloc configurable le cache de données L1 et la mémoire partagée.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Tout cela pour quelles conséquences ? Si l’on devait résumer la chose, on pourrait avancer que la majorité de ces modifications traduisent une même volonté de revoir l’approche des calculs parallèles sur les GPU NVIDIA. En supprimant une unité d’expédition par SM, en autorisant l’exécution simultanée des calculs sur des entiers et des flottants, et en proposant une gestion plus fine des fils d’exécutions, NVIDIA conserve une efficacité en matière de calculs parallèles, tout en offrant aux développeurs plus de souplesse dans la manière dont ils peuvent exploiter les ressources GPU. Comme souvent, il faut comprendre qu’il n’y a pas dans ce qui est proposé ici de bon ou de mauvais choix. Il s’agit surtout de trouver le compromis technique qui corresponde le mieux aux usages modernes des développeurs. Et avec les possibilités offertes à ces derniers par DirectX 12, NVIDIA a choisi de s’orienter vers un modèle SIMT (Single Instruction, Multiple Thread) plus souple que celui développé pour Maxwell et Pascal. Si l’on en croit les données NVIDIA, cette nouvelle structure permettrait d’améliorer le traitement des shaders modernes de 50%.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les testsGeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Système mémoire, cœurs CUDA, TMU… Jusqu’à présent, vous constaterez que nous n’avons abordé que la partie traditionnelle de la nouvelle architecture. Or, et nous l’avons souligné en introduction de cette page, Turing se caractérisera surtout par l’arrivée de deux nouveaux types d’unités de calculs au sein des blocs SM : les Tensor Core et les RT Core.

Quelques grammes de ray tracing dans un monde de rastérisation

Commençons par faire le point sur les RT Core, qui seront donc comme leur dénomination l’indique, dédiés au rendu ray tracing. Le ray tracing, pour ceux qui seraient passés à côté des différentes annonces conjointes de NVIDIA et Microsoft ces derniers mois, c’est un peu le Saint Graal en termes de rendu graphique. Une approche qui permettrait d’offrir à nos jeux une ambiance photoréaliste, similaire à celle que l’on retrouve dans la plupart des films d’animation modernes. Très basiquement, la technique du ray tracing consiste à projeter une somme de rayons depuis un point de vue vers un pixel, puis vers la scène 3D dont il est issu, rayons dont on analysera le tracé : certains vont ainsi rencontrer des sources de lumière, d’autre vont être stoppés par des objets, quand d’autres encore, vont rebondir dessus par réflexion, ou les traverser, avant de sortir de la scène ou de rencontrer à leur tour une source de lumière ou d’autres objets, et ainsi de suite. C’est finalement l’analyse de l’ensemble de ces rayons qui va permettre d’ajuster la couleur des pixels afin de traduire des effets d’ombres, de lumière, de réflexions, particulièrement bluffants…

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Toutefois, aussi chatoyante soit-elle, la technologie ray tracing a un défaut majeur : elle est extrêmement couteuse en termes de ressources GPU, au point qu’il est impossible d’envisager un rendu de ce type en temps réel. C’est pour cela que depuis des années, la technique de rendu par excellence dans les jeux reste la rastérisation, qui se base quant à elle sur des approximations, des algorithmes, pour générer les effets d’ombres et d’éclairage. Mais si le ray tracing est impossible à gérer en temps réel, pourquoi en parle-t-on ? Eh bien parce que si les GPU actuels ne sont pas suffisamment puissants pour assumer un rendu ray tracing complet, ils peuvent néanmoins ambitionner de l’apporter par petites touches. C’est tout le pari de ce que NVIDIA appelle l’approche hybride, qui va combiner au sein d’un même pipeline de rendu des éléments obtenus par rastérisation et des éléments obtenus par ray tracing, le but étant évidemment d’extraire le meilleur des deux mondes.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Ainsi, on utilisera la rastérisation pour réaliser toute la partie géométrie d’un rendu, tandis que la projection de rayons sera exploitée pour générer des ombres plus réalistes, ou de plus beaux effets de réflexion, le tout étant ajustable en fonction d’une expérience ciblée d’un point de vue performances. Et ce travail de ray tracing sera assigné aux fameux RT Core, qui peuvent être considérés comme des unités de calcul très spécialisées, chargées de réaliser de la manière la plus efficace les deux types d’opérations intrinsèques au rendu ray tracing, nommées Bounding Volume Hierarchy Traversal et Ray/Triangle intersection Testing. La première opération va consister à rechercher la primitive / le triangle qui va interagir avec un rayon au sein de la scène 3D. La seconde servira à déterminer le type d’interaction qui naitra de la rencontre objet / rayon.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Nous vous glissons ci-dessous quelques travaux et démonstrations sur les possibilités de ce mode de rendu hybride et il faut reconnaitre qu’à bien des égards, le résultat est souvent bluffant. Maintenant, comme toutes les nouvelles technologies de rendu, son succès restera dépendant de la volonté des développeurs à vouloir l’utiliser. Et dans la mesure où les RT Core sont des unités dédiées, sans jeux intégrant des éléments de ray tracing, elles pourraient très bien rester là à dormir. Les exemples dans l’histoire des cartes graphiques ne manquent pas pour argumenter ce risque : sur la génération Pascal, la technologie SMP par exemple, qui visait à accélérer les rendus de type VR, n’a pas rencontré un succès incroyable, la faute sans aucun doute, à une adoption timide (pour être sympa) des systèmes de réalité virtuelle par le grand public. Certes, le gain visuel que l’on peut vendre à un utilisateur final est réel dans le cas du ray tracing, mais en matière de développement d’un jeu vidéo, ce gain sera mis en balance avec des contraintes de timing, de budget, de compétences à acquérir. Pour résumer, NVIDIA fournit ici les outils… A charge pour les développeurs de trancher sur la pertinence de les utiliser.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

« Et nous nous sommes émerveillés de notre magnificence dès la venue au monde de l’IA »

Ce qui nous amène à la seconde grosse nouveauté côté unités de calcul spécialisées : les Tensor Core. En effet, si l’exploitation des RT Core reste soumise à la bonne volonté des différents acteurs du jeu vidéo, celle des Tensor Core pourra s’en affranchir. Et compte tenu des services qu’ils vont pouvoir rendre, c’est un argument non négligeable en faveur des GPU Turing. Mais que sont les Tensor Core ? Ils représentent la partie matérielle de la technologie NGX (pour Neural Graphics Acceleration), une technologie qui va utiliser les principes d’intelligence artificielle pour générer certains traitements graphiques, mieux et plus rapidement que ne l’auraient fait des unités de calculs arithmétiques. NVIDIA a développé plusieurs applications sur cette base : NGX InPainting va par exemple travailler sur une image endommagée pour la réparer et en créer une alternative cohérente et sans défaut visible. NGX Slow-Mo également, va là encore utiliser l’IA pour donner à une vidéo classique un effet slow motion, les images manquantes étant alors créées de toute pièce. Quant à AI Super Rez, il visera à augmenter la résolution d’une image d’un facteur 2, 4 voire 8, en proposant une finesse et une précision équivalente à ce que l’on aurait obtenue sur une photo prise en natif dans cette configuration. Mais nous allons surtout nous attarder sur la seule application qui touchera effectivement la qualité du jeu vidéo (IA Super Rez, par exemple, vise à être intégré comme outil Ansel plutôt que comme alternative au traitement DSR) : le DLSS pour Deep Learning Super-Sampling… Une autre manière d’envisager l’anti-aliasing.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Vous le savez, nous le savons, il le sache : l’anti-aliasing est un vrai problème d’un point de vue rendu. En résumé, on peut difficilement s’en passer parce qu’il s’agit d’un aspect impactant fortement la qualité visuelle d’une image. Et si on veut le faire bien, cela coute cher en ressources GPU. Il existe évidemment des alternatives plus légères, qui sont réalisées en post-traitement, mais elles ont des contreparties visuelles. C’est là qu’intervient l’IA. Encore une fois, très schématiquement, le travail de l’IA dans le cadre qui nous occupe va se caractériser par deux phases consécutives : l’une d’entrainement ou d’apprentissage et l’autre d’inférence. La première phase va avoir lieu en amont : elle consistera à faire travailler des calculateurs sur des milliers d’images de référence, chacune dans deux versions : avec une très haute qualité d’antialiasing, et sans aucun traitement. Dans notre cas, les images correspondront sans doute (nous n’avons pas eu de détails là-dessus) à des personnages, des lieux, des environnements que l’on retrouvera dans un jeu donné. L’étude des différences entre chaque duo d’images va permettre de créer un réseau neuronal, ou dans notre exemple, un réseau DLSS, que l’on pourra assimiler à une série de règles comparatives que l’on aurait accumulées de manière empirique. Une fois l’entrainement terminé, le réseau IA est réinjecté soit au niveau du moteur de jeu, soit au niveau des pilotes, soit via GeForce Experience, afin d’être exploité par les Tensor Core. A ce titre, il faut noter que les calculs d’IA s’apparentent à des calculs matriciels, pour lesquels les cœurs CUDA traditionnels n’étaient pas taillés. Cela explique la nécessité d’intégrer de nouvelles unités spécialisées au sein des stream processor.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Tout cela, c’est bien beau, mais quel est l’intérêt d’un traitement comme le DLSS ? Eh bien, toujours sur le papier puisque nous n’avons pas encore testé la chose, il est majeur. Si l’on en juge par les quelques démonstrations qui nous ont été faites, l’utilisation du DLSS impliquerait un gain double : on obtient une qualité de rendu équivalente à un traitement TAA 4X, pour un coup en ressource contenu et surtout, déplacé. Comprenez que l’application de l’anti-aliasing par ce biais permettra de libérer de la puissance pour les calculs géométriques classiques. Cela explique que sur une démonstration basée sur l’Unreal Engine 4 et dévoilée lors de la gamescom, une RTX 2080 Ti exploitant le DLSS offrait un framerate doublé, par rapport à une GTX 1080 Ti exploitant un anti aliasing de type TAA. Enfin, l’autre avantage du DLSS, comme nous le suggérions un peu plus haut, c’est qu’il peut être poussé pour chaque jeu directement par NVIDIA au niveau des pilotes du GPU. C’est ce point qui a permis à NVIDIA d’annoncer la compatibilité du DLSS avec une quinzaine de titres fin aout, puis d’en ajouter neuf autres quelques semaines plus tard.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests
GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

On comprend mieux dès lors la philosophie générale de Turing, qui va chercher à créer d’autres ressources pour gérer plus efficacement certains rendus, plutôt que de multiplier les fréquences de fonctionnement et des unités de calculs arithmétiques : la création d'une image pourra dès lors utiliser les forces conjointes du ray tracing, de la rastérisation, et de l'IA pour obtenir la meilleure qualité possible au moindre coût du point de vue du GPU. On ne va pas se mentir, la démarche présente évidemment un risque : encore une fois, NVIDIA fournit ici un certain nombre de nouveaux outils. Il appartiendra aux développeurs de déterminer s’ils souhaitent se les approprier. Toutefois, nous dirions que s’agissant des RTX 2070, 2080 et 2080 Ti, cette prise de risque profite d’un contexte particulièrement favorable, puisque ces produits n’auront certainement pas de concurrence avant plusieurs mois, voire plusieurs années, que ce soit du côté d’Intel ou d’AMD.

Toujours pas de HBM2 mais de la GDDR6

Mais continuons notre exploration de l’architecture Turing, en prenant un peu de recul : nous venons de faire le tour des nouveautés qui vont habiller le cœur des nouveaux GPU, voyons maintenant ce que les équipes NVIDIA nous ont réservé sur la gestion mémoire, le moteur vidéo, et sur la carte proprement dite. Fin 2017, NVIDIA lançait sa GeForce Titan V, un produit reposant sur l’architecture Volta, dont les RTX reprennent de nombreux éléments, et qui exploitait notamment une mémoire HBM2. Qu’en est-il pour les cartes Turing ? Eh bien la marque aura finalement fait le choix de la GDDR6. Un choix de raison, par rapport à l’HBM2 qui reste définitivement trop complexe et trop cher à produire. Par rapport à la GDDR5X qui équipaient les cartes GTX 1070, 1080 et 1080 Ti de la génération précédente, la nouvelle GDDR6 14 Gbps apportera un gain net de bande passante : de 25 à 75% selon le bus mémoire associé. En complément, le cache L2 se voit doubler, passant de 3 à 6 Mb sur les séries 80Ti, et de 2 à 4 Mb sur les séries 70 et 80. Et à cela vont s’ajouter les gains obtenus grâce à des algorithmes de compression toujours plus aboutis.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Côté moteur d’affichage, les GeForce continuent également leur évolution en vue d’être prêt à gérer les standards visuels de demain. Les RTX pourront ainsi supporter la norme DisplayPort 1.4a, qui va permettre de pousser l’affichage sur 8K en 60 Hz sur deux écrans. On note à ce propos que NVIDIA a ajouté sur le bracket arrière des GeForce RTX une nouvelle sortie de type USB-C, et renommée Virtual-link. Elle permettra de dégager 4 lignes HBR3 DP, ce qui pourra notamment faciliter le branchement des casques de réalité virtuelle. Enfin, l’encodage et le décodage vidéo ne sont pas en reste : l’encodeur NVENC intègre le support de l’H.265 (HEVC) en 8K / 30 FPS tandis que la partie NVDEC s’enrichit des supports suivants : HEVC 10/12b HDR à 30 FPS, H.264 8K, et VP9 10/12b HD.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests

Et c’est sur ces spécifications que nous allons clôturer notre premier tour d’horizon des cartes graphiques Turing. Nous n’avons évidemment pas abordé la totalité des nouveautés qui vont habiller cette nouvelle génération… Nous avons par exemple éludé les avancées réalisées sur la partie Shader / Gameworks, sur Ansel, sur GeForce Experience ou sur la gestion du SLI. Pas un mot sur l’overclocking non plus. Nous gardons tout cela pour la semaine prochaine, le but étant surtout pour aujourd’hui de vous tracer les grandes orientations technologiques de cette nouvelle génération de GPU. En guise de conclusion, nous vous invitons à profiter de quelques clichés de la première carte que nous avons reçue : la GeForce RTX 2080 Ti.

GeForce RTX : Un premier point technique sur l'architecture Turing avant les tests
GeForce RTX : Un premier point technique sur l'architecture Turing avant les testsGeForce RTX : Un premier point technique sur l'architecture Turing avant les tests
GeForce RTX : Un premier point technique sur l'architecture Turing avant les testsGeForce RTX : Un premier point technique sur l'architecture Turing avant les tests
Commentaires
Vous devez être connecté pour poster un commentaire.
Nergof Nergof
MP
Niveau 5
le 18 sept. 2018 à 13:53

Merci pour cet article, je suis étonné de voir un sujet aussi technique qui s'adresse davantage aux professionnels qu'aux consommateurs. Et comme il fallait s'y attendre, les technologies en faveur de la qualité visuelle ne cesse de s'améliorer. L'idée d'utiliser le Ray Tracing n'est pas étonnante, c'est d'ailleurs la suite logique qui finira belle et bien par être rendu en temps réel d'ici quelques années. Cependant, l'utilisation de l'IA et le Deep Learning est le résultat de la démocratisation de cette technologie. Malgré tout, je reste perplexe quant à l'avenir du jeu vidéo qui semble pencher davantage sur une révolution visuelle plutôt que sur une révolution de la "jouabilité".

Lire la suite...
Les jeux attendus
1
Grand Theft Auto VI
2025
2
Stellar Blade
26 avr. 2024
3
Star Wars Outlaws
30 août 2024
4
SAND LAND
26 avr. 2024
5
Senua's Saga : Hellblade II
21 mai 2024
La vidéo du moment