Passer au contenu

Apple Intelligence : les modèles IA d’Apple ont été entraînés par des puces Google

Apple a lancé hier soir la première fournée de fonctions Apple Intelligence, au travers d’une bêta d’iOS 18.1 et de macOS Sequoia 15.1 à destination des développeurs. Dans la foulée, le constructeur a également publié un rapport de recherche levant un coin du voile sur les techniques mises au point pour Apple Intelligence.

Les fonctions Apple Intelligence ne seront pas livrées au grand public avec les versions finales d’iOS 18 et de macOS Sequoia. Il faudra attendre la version 18.1 des systèmes d’exploitation de l’iPhone et de l’iPad, et macOS 15.1 pour les Mac. Hier, le constructeur a donné un avant goût de ce qui attendront les utilisateurs en la matière, du moins tous ceux qui n’habitent pas en Europe, qui en seront privés au moins jusqu’à la fin de l’année.

Les coulisses des modèles Apple Foundation Model

Apple ne s’est pas contenté de livrer des bêtas d’iOS 18.1 et de macOS 15.1. L’entreprise a aussi publié un nouveau rapport technique qui révèle plusieurs choses dignes d’intérêt. À commencer par le fait que les modèles de langage développés pour Apple Intelligence ont été regroupés sous le terme « Apple Foundation Model » (AFM).

Apple Intelligence 2
L’architecture d’Apple Intelligence. © Apple

Deux modèles ont été développés : « AFM-on-device », conçu pour fonctionner en local sur les appareils et qui compte 3 milliards de paramètres. Ce qui correspond à peu de choses près à Gemini Nano-2 (3,25 milliards de paramètres) qui s’utilise également en local. Le deuxième modèle, « AFM-server », est comme son nom l’indique destiné à être utilisé sur des serveurs en respectant le cadre de confidentialité du Private Cloud Compute.

Lire Apple dévoile Private Cloud Compute, sa solution pour que l’IA respecte votre vie privée

Ces deux modèles ont bénéficié d’un pré-entraînement de base, autrement dit une formation initiale à partir d’un ensemble de données « de haute qualité » : données sous licence, code provenant de dépôts open-source sur GitHub, ensembles de données publiques accessibles avec des licences… ou encore le web ouvert. Au grand dam des petits éditeurs qui n’ont pas eu leur mot à dire dans ce grand pillage.

Apple explique que cet entraînement a été réalisé sur des clusters TPU (Tensor Processing Unit), donc sur des puces Google. C’est une surprise, sachant qu’une bonne partie de l’industrie — OpenAI, Microsoft, Anthropic — se repose sur des GPU de Nvidia. Google, Meta, ou encore Oracle s’en procurent pour développer leurs propres systèmes IA. Apple a fait le choix de Google, peut-être parce que Nvidia, très demandé, n’avait tout simplement pas de GPU à vendre à Apple !

AFM-on-device, le modèle local, a été entraîné sur une « tranche » de 2 048 puces TPU v5p, la version la plus récente lancée en décembre dernier. L’entraînement d’AFM-server s’est réalisé sur 8 192 puces TPU v4 (qui remontent à 2021), sans qu’on sache si Apple en avait le contrôle complet. Mais si Google produit ses propres puces IA, le moteur de recherche est aussi un gros client de Nvidia, ce qui n’a pas été le cas (pas encore, du moins) d’Apple pour les modèles de son IA générative.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Mickaël Bazoge
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *