Il y a encore quelques mois, l’IA était synonyme de futur. Aujourd’hui, elle fait désormais partie de notre quotidien. Avec l’ère du « PC IA », l’intelligence artificielle est parfaitement intégrée sur nos PC et nous permet de travailler encore plus efficacement afin de mener à bien d’incroyables projets plus ambitieux que jamais. C’est pourquoi NVIDIA propose dès maintenant de nouvelles technologies NVIDIA RTX et GeForce RTX pour vous offrir les meilleurs outils.
Ces nouvelles technologies s’accompagnent d’une nouvelle façon d’évaluer les performances des tâches accélérées par l’IA et d’un nouveau langage qu’il peut être difficile de déchiffrer lorsqu’il s’agit de choisir entre les ordinateurs de bureau et les ordinateurs portables disponibles. Oubliez les images par secondes (FPS) bien connues par les joueurs et les PC Gaming, désormais, avec l’IA, nous parlons de TOPS et de Tokens. Voici un petit tour d’horizon.
Découvrez la gamme des gpu geforce rtx
Des PC au TOPS de la technologie
La première mesure que l’on peut aborder sont donc les TOPS, ou les “Trillions d’Opérations Par Seconde”. Trillions est le mot important
ici, puisqu’il souligne l’ordre de grandeurs assez massives que va pouvoir traiter l’IA. Le TOPS est comme une mesure de performance brute, similaire à la puissance d’un moteur.
Si l’on prend par exemple la gamme de PC Copilot+ qui a récemment été annoncée par Microsoft. Cette gamme comprend des unités de traitement neuronal (NPU) capables d’effectuer plus de 40 trillions d’opérations par seconde. Cela représente une exécution de 40 TOPS, ce qui est suffisante pour certaines tâches légères assistées par l’IA, comme demander à un chatbot local où se trouvent vos notes de la veille.
Cependant, de nombreuses tâches d’IA générative sont plus exigeantes et demandent bien plus de ressources. C’est à ce moment là que les GPU NVIDIA RTX et GeForce RTX entrent en jeu. Ces derniers sont ainsi capables d’offrir des performances inégalées pour toutes les tâches génératives. Si l’on prend le GPU GeForce RTX 4090, ce dernier peut offrir plus de 1 300 TOPS de puissance. Grâce à cela, vous allez pouvoir (et sans problèmes) gérer la création de contenu numérique assistée par l’IA (DCC), la super résolution IA dans les jeux sur PC, la génération d’images à partir de textes ou de vidéos, l’interrogation de grands modèles de langage locaux (LLM) et bien d’autres choses encore.
Les Tokens pour le jeu
Les TOPS sont une partie des nouvelles mesures, mais elles ne sont pas les seules. La performance du LLM est mesurée par le nombre de tokens (jetons) générés par le modèle. Pour faire simple, les tokens sont la sortie du LLM. Par exemple, un token peut être un mot dans une phrase, ou même une ponctuation ou un espace blanc. Les performances des tâches accélérées par l’IA peuvent être mesurées en « tokens par seconde ».
Un LLM sera au cœur de nombreux systèmes d’IA modernes. Ainsi, sa capacité à traiter des entrées multiples (par exemple, d’une seule application ou de plusieurs applications) est capitale. La taille du batch (lot), ou le nombre d’entrées traitées simultanément en une seule passe d’inférence est donc un facteur important. Si les lots de plus grande taille améliorent les performances pour les entrées simultanées, ils nécessitent également plus de mémoire, en particulier lorsqu’ils sont associés à des modèles de plus grande taille.
Justement, NVIDIA a fait en sorte que ses GPU RTX soient parfaitement adaptés aux LLM grâce à leurs grandes quantités de mémoire vive vidéo dédiée (VRAM), aux cœurs Tensor et au logiciel TensorRT-LLM. Ainsi, les GPU GeForce RTX offrent jusqu’à 24 Go de VRAM en haute vitesse, et les GPU NVIDIA RTX jusqu’à 48 Go, ce qui permet de gérer des modèles plus importants et d’augmenter la taille des batchs.
Pour aller encore plus loin, NVIDIA s’assure que ses GPU RTX tirent également parti des Tensor Cores, à savoir, des accélérateurs d’IA dédiés qui accélèrent considérablement les opérations de calcul intensif requises pour les modèles d’apprentissage profond et d’IA générative. Ainsi, lorsque qu’une application utilise le kit de développement logiciel (SDK) NVIDIA TensorRT, cela débloque une IA générative encore plus performante sur plus de 100 millions de PC et stations de travail Windows équipés de GPU RTX.
Passer d’un texte à des images à la vitesse de la lumière
Grâce à ces nouvelles technologies, les processus d’IA génératives sont grandement accélérés. De ce fait, mesurer la vitesse de génération des images est une autre façon d’évaluer les performances. Et les technologies de NVIDIA parviennent là encore à nous offrir des résultats remarquables.
L’une des méthodes de calcul les plus simples consiste à utiliser Stable Diffusion, un modèle d’IA populaire basé sur l’image qui permet aux utilisateurs de convertir facilement des descriptions textuelles en représentations visuelles complexes. C’est le principe même de Midjourney, où vous allez rentrer une commande textuel et une image (ou vidéo) va être générée à partir de cela.
Avec Stable Diffusion, les utilisateurs peuvent rapidement créer et affiner des images à partir d’invites textuelles afin d’obtenir le résultat souhaité. Grâce au GPU RTX de NVIDIA, ces résultats peuvent être générés plus rapidement qu’en traitant le modèle d’IA sur un CPU ou un NPU.
Bien entendu, si vous utilisez l’extension TensorRT, les performances sont encore plus élevées. Les utilisateurs de RTX génèrent des images à partir d’invites jusqu’à deux fois plus vite avec le point de contrôle SDXL Base, ce qui simplifie considérablement les flux de travail de Stable Diffusion.
Stable Diffusion 3 est le nouveau modèle texte-image très attendu de Stability AI. Ce dernier utilise également TensorRT, ce qui augmente les performances de 50%. L’accélération peut même monter à 70% grâce au nouvel optimiseur de modèle TensorRT. Cet optimiseur permet également une réduction de 50% de la consommation de mémoire.
Découvrez la gamme des gpu geforce rtx
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
En partenariat avec NVIDIA