Passer au contenu

ARM, Intel et Nvidia standardisent les calculs IA pour accélérer leur développement… et abaisser leur consommation énergétique

En formalisant un standard de calcul à virgule flottante sur 8 bits au lieu de 16, voire 32, le trio que forment ARM, Intel et AMD va accélérer les entraînements des IA. Grâce à la diminution de besoin de calcul et de mémoire, abaisser par la bande l’empreinte financière et économique de ces opérations.

Entraîner les IA prend de plus en plus de temps et coûte de plus en plus cher en temps machine et en empreinte énergétique. Pour s’attaquer à ce problème, les géants ARM, Intel et Nvidia se sont mis d’accord sur un standard de calcul sur 8 bits à virgule flottante FP8. Dans une publication commune, les trois sociétés ont même rendu leur standard FP8 gratuit. Loin d’être de la philanthropie pure, c’est assez logique : ils vendent (directement ou indirectement) des puces pour réaliser ces calculs.

De manière peut-être contrintuitive pour ceux qui mesuraient la puissance des consoles par leur nombre de bits (8 bits pour la NES, 16 pour la SuperNes, etc.) dans le calcul IA, ajouter des bits de précision n’est pas forcément la panacée. Selon les chercheurs des trois entreprises, le calcul FP8 est « le juste milieu » entre la qualité des résultats et la puissance de calcul requise. Un responsable de Nvidia explique que le FP8 propose « une précision comparable » au calcul sur 16 bits dans des tâches de vision informatisée ou de systèmes de génération d’image (comme Dall-E). Tout en permettant des accélérations « significatives » de ces calculs.

Loin de tomber de nulle part, privilégier le calcul FP8 sur les tâches liées à l’image notamment fait consensus dans l’industrie. Qualcomm, par exemple, privilégie déjà l’exécution du FP8 dans ses tests de mesures de performances. Arguant, lui aussi, que ce degré de précision est « suffisant ».

Entraîner des réseaux de neurones est plus ou moins rapide selon les modèles. Les modèles les plus récents comme GPT-3 sont ceux qui ont le plus accéléré l’entraînement (405 années, barre bleue). Mais aussi ceux qui consomment le plus d’énergie et ont l’impact environnemental (CO2) le plus important (barres rouge et jaune).

Sur le plan technique, réduire la précision d’un calcul, c’est accélérer l’exécution de la tâche. Une accélération qui offre, par rebond, un autre avantage : limiter le temps/la quantité d’usage des processeurs (CPU, GPU, IA). Or, l’amélioration et la complexification des modèles d’entraînement, comme GPT-3, a poussé à la hausse les factures financières et énergétiques. Les ingénieurs et chercheurs dépensent parfois des centaines de milliers, voire des millions d’euros ou de dollars pour entraîner des IA. Des entraînements dont nous profitons au quotidien : reconnaissance de scène ou de sujet de votre appareil photo, etc.

Si la standardisation du FP8 fonctionne, ne vous réjouissez pas complètement non plus. Cela va limiter les « dégâts » et permettre de gros progrès à la fois en logiciel et en matériel (puces de plus en plus optimisées et efficaces). Mais cela va aussi abaisser le ticket d’entrée et favoriser la généralisation de ce type de calcul dans plus d’industries.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.

Source : Techcrunch.com