Depuis trois ans environ, la carte graphique est devenue un élément incontournable du micro des joueurs. A tel point que les modèles les plus performants consomment aujourd’hui plus d’énergie que le processeur et coûtent aussi cher
qu’un PC d’entrée de gamme ! Jusqu’en 2002, les circuits graphiques se contentaient d’intégrer une série de fonctions préprogrammées (simuler du brouillard, allumer une lumière) dans laquelle les développeurs de jeux devaient piocher pour
réaliser leurs graphismes. Problème : pour produire des effets non prévus par les cartes, c’est le processeur du PC qui devait réaliser les calculs, ce qui était très lent. Les circuits actuels comportent, eux, des microcircuits
‘ généralistes ‘, les shaders, qui peuvent effectuer tout type de calcul, et permettent donc aux programmeurs de réaliser leurs propres effets puis de les faire exécuter par la seule carte graphique,
sans détour par le processeur du PC. C’est grâce aux shaders que les monstres de Doom3 sont si crédibles et que l’on peut apercevoir la surface des fleuves ondoyer dans Half-Life 2. Toutefois, comme les
processeurs, les shaders n’ont pas une puissance de calcul infinie. Pour que l’animation reste fluide, les développeurs doivent sacrifier certains effets spéciaux qui ralentiraient trop le circuit graphique. Bien sûr, la puissance des cartes
graphiques n’a cessé de progresser : ATI et nVidia, les deux principaux concepteurs de circuits, ont augmenté la fréquence (le nombre de mégahertz) des puces et ajouté d’autres micro-circuits pour traiter encore plus vite les images. Et pour
obtenir des jeux toujours plus fluides, nVidia vient de développer un nouveau procédé, le SLI. Son principe est simple. Il repose sur l’emploi de deux cartes graphiques au lieu d’une seule, comme c’est le cas aujourd’hui. Cette idée n’est pas neuve,
3Dfx, une société absorbée par nVidia en 2001, avait développé il y a plusieurs années une technologie similaire pour ses cartes graphiques 3Dfx Voodoo 2, qui se branchaient alors sur des ports PCI. A l’époque, SLI signifiait Scan line
interleaving : la première carte graphique calculait les lignes paires de l’affichage, la seconde les lignes impaires. Le SLI à la sauce 3Dfx a disparu lorsque le port AGP est arrivé sur les PC : cette technologie, disponible
sur un seul port de la carte mère, ne permettait pas d’employer simultanément deux cartes graphiques. L’arrivée, depuis l’été dernier du PCI Express, un port rapide présent en plusieurs exemplaires sur les cartes mères, a permis au SLI de retrouver
une nouvelle jeunesse. La technologie a évolué (lire l’encadré ‘ Comment ça marche ? ‘ pages précédentes), ainsi que son acronyme, qui signifie désormais Scalable Link
Interface. Testé par notre laboratoire, le SLI a démontré son potentiel : Doom 3 (qui sollicite énormément les shaders) reste fluide même en haute définition, alors qu’avec une seule carte, on observe des
ralentissements ponctuels (lire l’encadré ‘ Que vais-je y gagner ? ‘, pages précédentes). Mais avec les jeux qui sollicitent peu les shaders, le gain est beaucoup plus réduit. C’est donc avec les
prochains jeux comme S.T.A.L.K.E.R. ou ceux basés sur le moteur Unreal Engine 3 (les prochains épisodes de Splinter Cell et d’Unreal Tournament) que le gain sera le plus important.
Uniquement développé par nVidia, le principe du SLI n’a, pour l’instant, pas trouvé d’écho chez son concurrent ATI, qui préfère s’attaquer à une autre technologie de nVidia : celle des cartes graphiques pour PC de bureau utilisant une partie de
la mémoire de l’ordinateur pour fonctionner. Une solution qui permettrait aux ordinateurs les moins chers de montrer, enfin, quelques aptitudes sur les jeux en 3D (lire ci-contre).
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.