Entraîner les IA coûte cher, prend du temps et Amazon veut s’attaquer à ces deux problèmes en lançant sa propre puce, AWS Trainium. Ce processeur, annoncé à son événement annuel AWS re:Invent, dont on ignore tous des détails techniques (finesse de gravure, processeurs de flux, etc.), veut concurrencer les GPU de Nvidia, champions actuels dans ce domaine.
Compatible avec les outils les plus importants dans le champ du ML (machine learning) – TensorFlow de Google, PyTorch de Facebook ou le framework libre MxNet d’Apache – la puce d’Amazon -qui sera disponible dans des instances EC2 l’année prochaine- promet « des débits 30% supérieurs et des coûts d’inférence 45% inférieurs aux instances GPU AWS équivalentes » déjà existantes, selon Amazon. Qui affirme être capable « d’offrir la plus grande puissance en TFLOPS dans le cloud » pour créer les modèles qui serviront à l’apprentissage machine.
Et pour l’exécution de ces modèles d’apprentissage machine, Amazon lancera les premières instances de la puce Gaudi, fruit du rachat d’Habana par Intel l’an dernier. Cette super puce dédiée à l’IA promet d’offrir un rapport prix/performances 40% meilleur que les GPU de Nvidia, ce qui ferait baisser notablement les coûts des entraînements, les instances cloud étant facturées à l’heure.
La création et l’exécution de modèles d’apprentissage machine ne sont pas des tâches anodines. Cet article (en anglais) met en lumière les coûts d’entraînement – qui n’aboutissent pas toujours à des résultats concluants ! – et les sommes vont de quelques milliers à plusieurs centaines de milliers de dollars. L’accélération des performances et de l’efficacité énergétique des puces liées à l’IA a donc des impacts énormes, puisque faire baisser les coûts permet aux universitaires et aux entreprises d’améliorer plus rapidement la qualité de leurs algorithmes.
Sources : Amazon AWS via VentureBeat et TechCrunch
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.