Nvidia fête la rentrée des classes en fanfare. Le 1er septembre dernier, le concepteur de GPU annonçait la sortie de ses nouvelles cartes graphiques pour joueurs : les GeForce RTX de série 30. Trois nouveaux modèles ont été dévoilés : la 3070, la 3080 et la 3090 et c’est la RTX 3080 qui ouvre le bal des sorties. Elle va être très vite disponible dans le commerce. Mais ne vous en attendez pas à en trouver des tonnes d’entrée de jeu. Ce ne sera sûrement pas le cas, tant sur le site de Nvidia que sur les sites marchands français.
Son prix est donné à partir de 720 euros mais il demeure très indicatif : les constructeurs comme Asus, MSI, PNY ou encore EVGA et Zotac sont libres de positionner leurs modèles au prix qu’ils souhaitent puisqu’ils auront été modifiés par leurs soins (ventilation, fréquence, carter).
Toutefois, sur le site de Nvidia, il y aura sans doute possibilité de mettre la main sur des versions Founders Edition de la carte, avec un kit de refroidissement atypique et un design qui, avouons-le, ne nous laisse pas du tout insensible.
Ampere : la nouvelle architecture Nvidia en bref
Nous l’avons déjà expliqué au moment des annonces, Ampere est une évolution de l’architecture Turing, sortie en 2018. Elle fut la première architecture de Nvidia à mettre au coeur de la même puce des unités de traitement très différentes, mais toutes unies dans un seul but : magnifier nos jeux.
Outre les CUDA Cores, partie intégrante de l’histoire des GPU Nvidia, ce sont surtout les Tensor Cores – les spécialistes de l’IA et du DLSS – et les RT Cores – les génies du ray tracing – qui sont les grands « petits » nouveaux que l’on trouve dans les deux générations de RTX.
Et les Tensor Cores ne servent pas qu’à améliorer le rendu visuel des jeux via le DLSS. Ce sont eux qui permettent aux fonctionnalités du nouveau logiciel Broadcast de Nvidia de fonctionner, on pense notamment à la suppression de bruit ou encore à l’incrustation d’image intelligente sans besoin d’avoir un fond vert.
Qu’est-ce qui différencie Ampere de Turing ? Sur le plan technique, la gravure est plus fine. Ampere est en 8 nm (Samsung) et Turing, en 12 nm (TSMC) et ça, c’est très important.
Cette réduction va avoir une incidence positive sur les gains de puissance et de performances, car ce sont là les deux plus grosses promesses de Nvidia.
- Des ajouts et des unités un peu plus hybrides
Des promesses qui reposent sur les améliorations effectuées au niveau des différents éléments de la puce (bande passante x2 vers le cache L1 et +1/3 de cache L2), au niveau de la circulation des informations et, enfin, à plusieurs remaniements et petits ajouts techniques. Les RT sont maintenant deux fois plus précis dans leurs tests de génération de ray tracing sur les surfaces.
Il y a, aussi, une unité en plus dans les RT Core. En gros, elle va aider à générer du RT sur les objets en Motion Blur (Interface Triangle Position) dans des logiciels de rendus spéciaux et, par extension, dans nos jeux.
Si dans tout le flot de technicité, il y n’y a qu’une chose à retenir, c’est que Nvidia est parvenu à rendre des unités CUDA capables de s’adapter au type de calcul qu’on leur soumet. Elles peuvent prendre en charge des calculs de données fondamentalement différents (à virgule flottante (FP) et entier (INT)), sur le schéma ci-dessus, ce sont les petits carrés verts qui portent la mention FP32+INT32.
C’est grâce à cette astuce (dérivée des GeForce GTX série 10) que Nvidia peut annoncer fièrement qu’il a doublé le nombre de CUDA Core sur les puces… sans en avoir ajouter de grosses quantités dans les compartiments Streaming Multiprocessors (SM en exergue ci-dessus) de la puce.
Avant, il fallait des CUDA Core pour traiter chaque type de calculs (une rangée pour les INT et une autre pour les FP). Aujourd’hui, ce n’est plus le cas et ceci va clairement aider et fluidifier l’affichage de nos jeux et la prise en charge des calculs divers.
- La GDDR6X double la mise
L’autre élément qui va aider à faire le liant, la mémoire GDDR6X fabriquée par Micron. Elle participe très largement à l’accroissement de performances que nous allons pouvoir constater ci-après. Là encore, pour faire simple, elle peut engranger plus de valeurs par cycle (4 contre 2) que GDDR6 et propose une efficacité énergétique supérieure.
En clair, elle peut monter plus progressivement et plus haut dans les tours tout en consommant une quantité de courant très mesurée. Tout cela participe à améliorer ses performances globales.
GeForce RTX 3080 : nos résultats de tests reflètent-ils les promesses de Nvidia ?
Au cours de la conférence officielle et des multiples sessions techniques réservées à la presse, Nvidia a annoncé clairement la couleur. Ci-dessous, le concepteur résume les performances que nous sommes en droit d’attendre des puces Ampere par rapport à celles que Turing pouvait développer.
On décode rapidement : jusqu’à 2,7x plus de puissance en calcul de shaders pur et dur (les CUDA Cores), jusqu’à 1,7x d’efficacité quand il faut faire du rendu ray tracing (RT Cores de 2nd génération) et, enfin, la prise en charge des technologies liées à l’IA – comme le DLSS – en augmentation de 2,7x (maximum, grâce au Tensor Core de 3ème génération).
Le plus fort, c’est qu’il va être possible de conjuguer tous ces gains, notamment dans la génération de scènes 3D de jeux qui combinent les trois unités, c’est-à-dire des titres pleins de shaders et compatibles à la fois avec le DLSS et le ray tracing. Il n’y en a pas beaucoup sur le marché, certes, mais avec l’arrivée du ray tracing sur les consoles next gen, il y a fort à parier que ce mode de rendu soit de plus en plus porté sur les versions PC des jeux multi plates-formes. Nvidia nous a livré quelques scores de son cru.
À lire aussi : Reflex, où comment Nvidia veut faire de vous le tireur le plus rapide du Web
Et pour vérifier tout cela, nous avons intégré quelques jeux versatiles dans nos résultats pour vous montrer si associer tout ce petit monde est vraiment efficace ou non.
- Deux définitions privilégiées… et la Full HD n’en fait pas partie
Nous préciserons, à toutes fins utiles, que nous n’avons volontairement pas fait de tests en Full HD. Très clairement, si vous avez un écran de ce type et ne comptez pas passer au 1440p ou la 4K bientôt, n’investissez pas dans une RTX 3080.
Attendez plutôt la RTX 3070 dont nous connaissons – maintenant – la date de sortie : le 15 octobre prochain. Pour mémoire, elle sera un tout petit peu plus puissante que la RTX 2080 Ti et suffisamment versatile pour vous permettre de jouer en Full HD et en 1440p sans le moindre souci. Voire d’aller taquiner la 4K de temps en temps.
Ci-dessous, vous ne trouverez donc que des résultats en 1440p (2560 par 1440 pixels) et en 4K/UHD (3840 par 2160 pixels), tous mesurés sur notre écran Samsung de référence, relié en DisplayPort à la RTX 3080.
- Jusqu’à deux fois plus d’images par seconde sans RT et DLSS
Avant de mettre les pieds dans le RT et le DLSS, commençons par les basiques. Des jeux sur lesquels beaucoup de gamers passent de temps et qui ne sont pas optimisés avec l’une ou l’autre des technologies. Dans notre panel de test, correspondent à cette description Rainbow Six Siege, The Division 2, Horizon Zero Dawn et Forza Horizon 4. Parmi d’autres.
Les graphiques parlent d’eux-mêmes : il y a de sacrés sauts de performances suivant les jeux, entre les 2080/2080S et la 3080. La 2080 Ti parvient à rester dans le rétroviseur de la 3080 la plupart du temps. Deux fois plus de puissance selon Nvidia ? Non.
En moyenne, en 1440p sans DLSS ni RT, la RTX 3080 est 24% plus performante que la RTX 2080 Ti, 43% plus véloce que la RTX 2080S et, enfin, fait plus d’un 1,5x mieux que la 2080 première du nom avec des écarts de 56% constatés.
En 4K, avec la 2080 Ti, l’écart moyen mesuré est de 32%. Avec les RTX 2080S et 2080 classiques, nous avons obtenu des différences moyennes comprises entre 54 et 64%.
- Le DLSS 2.0 : mieux que la qualité originale et encore plus efficace
Le DLSS est passé en version 2.0 au printemps. Nvidia est parvenu à encore améliorer son mode d’entraînement et donc les rendus qui sont générés à partir des images analysées par l’algorithme ont gagné en qualité. Selon le concepteur de GPU la 1440p ou la 4K en DLSS sont plus belles que ces mêmes définitions, en natif. Nous nous livrerons sans doute à quelques expériences plus tard.
Suivant les jeux compatibles, il est plus ou moins possible d’affiner le niveau de traitement du DLSS. Shadow of the Tomb Raider, par exemple, propose un réglage par défaut, Wolfenstein : Young Blood et Bright Memory – eux – offrent plusieurs niveaux (Performance, Equilibré, Qualité) à faire varier dans le menu des options graphiques.
- Le ray tracing made in Ampere : des effets encore plus incroyables
Le ray tracing mange énormément de ressources. Surtout lorsqu’il faut le générer en temps réel et en 4K. Il existe aussi une solution hybride, qui alterne le rendering classique – grâce aux shaders – et le RT sur des surfaces prédéfinies par les développeurs.
Quoi qu’il en soit, confier ce genre de calculs à des unités traditionnelles est hors de question sous peine de voir un magnifique jeu se transformer en soirée diapo mémorable. C’est pour cette raison que Nvidia leur a dédié des unités dans Turing et, bien entendu, dans Ampere. Ce sont les RT Cores, de seconde génération dans les RTX 3080.
Ci-dessous, des morceaux choisis de nos tests. Certains sont faits en RT, d’autres en cumulant le RT et le DLSS.
Comme on le voit, le DLSS est un moyen astucieux de décharger les CUDA Cores d’une partie des calculs puisque la génération des images devient presque prédictive, et ce sont d’autres unités qui se chargent de son cas, les Tensor Cores.
Aussi puissants qu’ils soient, les RT Cores auront parfois du mal à faire du ray tracing temps réel en 4K (regardez les scores RT dans Bright Memory). C’est donc pour cela que Nvidia conseille de le coupler au DLSS, pour avoir tous les bénéfices de l’architecture Ampere. Super transition, non ?
- RT + DLSS + CUDA Cores, l’addition du tonnerre sublimée par Ampere
Tout le monde au travail ! Pour vous montrer la gradation et les différences que l’on peut observer en ne faisant travailler que les CUDA Core et, ensuite, en sollicitant toutes les unités (Tensor et RT Cores) avec plus ou moins de niveaux de détails, rien de mieux que le jeu Wolfenstein : Young Blood comme cobaye.
D’une part, parce que Nvidia s’en est servi pendant sa présentation pour annoncer des scores incroyables (jusqu’à 2 fois plus d’images par seconde par rapport à une 2080S en 4K avec RT et DLSS), nous voulions vérifier par nous-mêmes.
D’autre part, parce que les développeurs nous ont donné accès à une version du jeu qui va être très prochainement déployée pour tous et qui est spécialement taillée pour tirer le meilleur parti de toutes les nouvelles aptitudes de l’architecture Ampere.
Nous préciserons que les scores que nous avons inscrits ci-dessus sont ceux que nous avons obtenus en faisant la moyenne du nombre d’images obtenues dans les deux tests proposés par le jeu (Riverside et Labo X)
Nous avons toutefois remarqué qu’en 4K, avec le DLSS à fond et le RT activé au plus haut niveau, sur l’une des deux scènes de test, la RTX 2080S affichait 72 ips en moyenne alors que la RTX 3080, elle, en affichait tout simplement le double (142 pour être précis).
Nvidia tient sa promesse de pouvoir afficher jusqu’à deux fois plus d’images par seconde, en 4K, dans les jeux, mais il faut toutefois que toutes les conditions propices soient réunies. Et c’est le cas de (trop ?) peu de jeux à l’heure actuelle.
Consommation, chauffe et bruit
Nous n’avons fait qu’un relevé précis ici, celui de la consommation globale de notre plate-forme de test, équipée des différentes cartes RTX.
La chauffe et la perception du bruit dépendront beaucoup du boîtier dans lequel vous placerez la RTX 3080. Et suivant le type de refroidissement – celui des Founders Edition de Nvidia ou ceux des partenaires – tout peut changer également.
Sur notre plate-forme de test, la belle a eu tendance à bien chauffer. Nous le sentions en approchant notre main de l’imposant système de dissipation. Et, pour la petite histoire, nous nous sommes légèrement brûlé le dos de la main en voulant changer de carte entre deux sessions de test. Prévoyez donc un bon boîtier, bien équipé en ventilateurs si vous avez l’ambition de vous l’offrir.
Reste que, malgré tout ce beau dégagement de calories, la puce ne s’est jamais mise en panne. Le mode Turbo s’est fréquemment activé, que ce soit en 1440p ou en 4K. Notre modèle de test ne s’est d’ailleurs pas cantonné à la valeur Turbo annoncée par Nvidia (qui est un minimum, on le rappelle). Nous avons enregistré des pointes jusqu’à 1,9 GHz soit 200 MHz de plus que la valeur d’usine.
En matière de bruit, là encore, tout dépendra du contenant que vous avez à la maison. Bon point, Nvidia a enfin réussi à implanter la fonction qui coupe totalement les ventilateurs lorsque vous n’êtes pas en train de faire tourner un jeu. Il était temps ! Ses partenaires – eux – le font depuis des années sur leurs modèles personnalisés.
Nous avons noté quelques petits bruits de composants (coil whining) surtout dans les menus des jeux et dans lors de l’exécution de certains vieux titres. Rien de surprenant toutefois et pas de quoi s’alarmer : si vous entendez votre carte chanter, c’est normal.
Pour le reste, les ventilateurs sont d’une discrétion assez remarquables. Plus encore que ceux des RTX 2000 que nous trouvions déjà assez silencieux et qui, pourtant, ne ménageaient pas leur peine pour refroidir l’ensemble des composants situés sous le dissipateur Dolphin.
Nous n’avons pas pu tester le principe de circulation d’air du dissipateur Nvidia en profondeur, et ce, faute d’avoir suffisamment de boîtiers différents sous la main. Il faut toutefois envisager d’avoir une bonne tour, bardée de ventilateurs en façade pour l’aspiration, et à l’arrière et/ou au sommet en extraction pour évacuer correctement la chaleur conséquente dégagée par la carte.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.