Après la Titan et la Titan Z, voici la Titan X, la carte graphique monoprocesseur la plus puissante du moment. Une habitude chez Nvidia, à se demander quand AMD va sortir de son sommeil… La GeForce Titan X de Nvidia est donc le plus gros monstre sorti des cerveaux des ingénieurs Nvidia à ce jour et entend bien faire sa place dans les PC hyper haut de gamme. Voire de luxe, n’ayons pas peur des mots. La Titan X sera disponible à 1000 $, soit probablement le même montant en euros dans nos contrées. Partiellement dévoilée à la Game Developer Conference 2015 qui se tenait il y a quelques jours, cette grosse barre à (coeurs) CUDA devrait arriver fin mars sur les étagères. Et, bien entendu, ne vous attendez pas à en trouver des quantités industrielles, car c’est une carte d’exception et donc il y a fort à parier que les premiers modèles soient rapidement écoulés.
Techniquement décadente
Système de ventilation noir, ressemblant à s’y méprendre à ceux des GTX Titan, GTX 780 Ti ou encore à celui des toutes récentes GeForce GTX 980, pas plus de 26,7 cm sur la toise, la Titan n’est pas physiquement impressionnante. Mais, ce n’est pas la forme qui compte ici, mais bien le fond. Et là, nous sommes plus dans le registre de la débauche que dans celui du raisonnable.
La puce 3D est conçue sur l’architecture Maxwell et porte le nom de code de GM200. Et, contrairement à toutes les autres cartes haut de gamme Nvidia, la GeForce GTX Titan X embarque la totalité des unités SMM (les blocs embarquant tous les coeurs de calcul) qu’une puce peut contenir. C’est bien simple, il y a 3072 coeurs CUDA dans la petite puce et l’ensemble turbine à 1 GHz, de quoi faire tourner tous les jeux, en Full HD jusqu’en 4K, sans se poser la moindre question. Pour que les textures 4K puissent d’ailleurs être correctement gérées, Nvidia a soudé 12 Go de mémoire GDDR5 dans la carte (oui, 12 Go). Nous n’en avions jamais vu autant sur un seul circuit ! Mais ne serait-ce pas trop ? Oui, pour le moment, c’est certain. Aucun jeu n’a besoin d’autant de ressources mémoire.
Cependant, les techniciens de Nvidia assurent que certains titres à venir en 2015 ou 2016 les utiliseront lorsqu’il s’agira d’afficher leurs textures et polygones en Très Haute Définition. Nvidia mise sur l’avenir et sur l’explosion de la 4K dans les jeux. Rappelons que cette techno est à peine éclose, que le contenu est inexistant ou pas loin et qui, pour le moment, ne nous convainc pas du tout dans les jeux vidéo. Elle demande vraiment trop de puissance de calcul pour un résultat tout juste acceptable : à peine 58 images par seconde avec la Titan X, dans le jeu Shadow of Mordor, lors de la présentation de Nvidia.
Premières impressions
Voilà plusieurs jours que nous avons reçu la Titan X au labo de 01net.com. Nous n’avons pas encore terminé nos tests, surtout ceux que nous souhaitons mener en 1440p voire 4K. Car, ne nous y trompons pas, c’est pour cela que la Titan X est née. Et aussi pour jouer à des jeux spécialement optimisés pour des lunettes de réalité augmentée comme l’Oculus. Fait étrange, durant la présentation de Nvidia, nous n’avons pas eu de démo avec des lunettes Oculus ou assimilés pour nous en rendre compte. Fort heureusement, nous avons un kit Oculus à la rédaction, et nous ne nous priverons pas de faire quelques tests.
D’après les premiers chiffres que nous tirons de nos tests, tant analytiques (3D Mark) que pratiques (jeux DirectX 9, 10 et 11), la Titan X tient très bien la route. Dans 3DMark FireStrike Extrême, son score dépasse les 8000 points soit un peu moins de la moitié des résultats obtenus avec 3 puces 3D d’un 3-Way SLI de GTX 980 par exemple.
De plus, tous les tests menés en Full HD et sur notre écran 30 pouces (2560 par 1600 pixels) sont au diapason, la carte garde une cadence supérieure à 100 images par seconde, options graphiques en “Ultra” ou “Extrême“.
Pour le moment, nous n’avons pas pu mener nos tests de consommation jusqu’au bout mais la carte reste sous la barre de 220 watts dans les jeux les plus gourmands. La puce monte, elle, à 82°C sans le moindre souci et nous avons noté, enfin, que notre modèle arrivait à dépasser la valeur GPU Boost de 1076 MHz donnée par Nvidia pour atteindre 1090 MHz, tout rond. De quoi gagner quelques images en plus sous les jeux mais, à ce niveau, est-ce encore bien nécessaire ?
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.