Passer au contenu

Les nouveaux modèles IA d’Apple pourraient bien trouver une place dans l’iPhone

En attendant les fonctions grand public infusées à l’IA générative, Apple travaille sur les moteurs, autrement dit les modèles IA qui seront au cœur de la stratégie du constructeur. Ce dernier propose ainsi à la communauté open-source une nouvelle famille de grands modèles de langage OpenELM qui ont la particularité de fonctionner en local.

La WWDC, qui débutera le 10 juin, ne marquera pas les débuts de l’IA générative chez Apple, même si le constructeur devrait dévoiler de nouvelles fonctionnalités IA dans iOS 18. La firme à la pomme développe cette technologie depuis des mois, un chantier à ciel ouvert puisque les spécialistes d’Apple publient régulièrement leurs recherches.

Une intelligence artificielle respectueuse de la confidentialité

L’entreprise a ainsi mis en ligne sur Hugging Face, le point de rendez-vous de la communauté de développeurs IA, une famille de grands modèles de langage (LLM) regroupés sous le nom OpenELM, pour « Open-source Efficient Language Models ». Car oui, il est tout à fait possible de reprendre ce code tel quel ou de le modifier, y compris pour un usage commercial selon la licence.

En tout, il y a 8 modèles ; quatre sont pré-entraînés, c’est à dire formés sur de vastes ensembles de données pour le développement ultérieur de modèles plus spécialisés. Les quatre autres, des modèles « instruction-tuned », ont été pré-entraînés et ils ont en plus subi un entraînement supplémentaire pour répondre à des requêtes spécifiques.

Ces modèles OpenELM couvrent différents volumes de paramètres, allant de 270 millions à 3 milliards de paramètres — autrement dit le nombre de connexions entre les neurones artificiels dans un LLM. Chaque paramètre peut être vu comme une sorte de « poids » qui influence la manière dont les informations sont traitées par le modèle. On peut penser que plus il y a de paramètres, mieux c’est mais il faut noter que le volume ne garantit pas toujours les meilleures performances ; d’autres facteurs comme la qualité des données d’entraînement et l’efficacité de l’algorithme jouent également un rôle crucial.

La particularité de ces modèles est qu’ils fonctionnent tous en local, c’est à dire sur les appareils. Apple a réalisé des benchmarks sur des ordinateurs (Mac et PC), et tout laisse penser qu’ils peuvent aussi donner le meilleur d’eux mêmes dans un smartphone. Voilà qui n’est pas sans évoquer Gemini Nano de Google, ou le nouveau modèle Phi-3 Mini de Microsoft (3,8 milliards de paramètres).

Apple devrait favoriser le traitement des tâches IA en local pour des questions de confidentialité des données. Il n’est pas interdit de penser que ces modèles OpenEML seront mis à contribution !

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Mickaël Bazoge