Passer au contenu

OpenAI a de grandes ambitions pour son petit modèle GPT-4o mini

Les entreprises et les organisations ayant besoin d’un modèle de langage pour leurs besoins en IA générative ont le choix : les solutions ne manquent pas, qu’elles soient commerciales ou open source. OpenAI ne veut pas se laisser distancer et lance GTP-4o mini, son modèle le plus abordable, mais pas le moins puissant.

La concurrence s’échauffe dans le secteur des grands modèles de langage (LLM). Les fournisseurs d’IA, qu’il s’agisse de Google, Meta, Anthropic ou encore Cohere, proposent des LLM adaptés à tous les usages. OpenAI est évidemment un d’entre eux, et compte à son catalogue plusieurs modèles : GPT-3.5 Turbo, GPT-4o… et depuis aujourd’hui, GPT-4o mini.

Mini, mais costaud

À l’instar de son grand frère GPT-4o, le nouveau LLM est multimodal, il interprète les images et le texte et peut utiliser Dall-E 3 pour générer des images. Il sera disponible aujourd’hui pour les utilisateurs de ChatGPT et les abonnés payants ChatGPT Plus/Team, et les clients Enterprise pourront s’en servir la semaine prochaine. Mais OpenAI vise aussi et surtout les organisations ayant besoin d’un LLM pour leurs propres travaux.

Cette version de GPT-4 est « 60 % moins chère que le moins cher des modèles d’OpenAI existants », trompette l’entreprise, tout en offrant de meilleures performances pour des tâches relativement simples (résumé de texte, créer des listes, suggérer des mots). Pour y parvenir, OpenAI a amélioré l’architecture du modèle et affiné les données d’entraînement. GPT-4o mini fait mieux que que les autres « petits » modèles disponibles sur le marché (dans les benchmarks réalisés par la société, précision importante). GPT-4o mini remplacera d’ailleurs GPT-3.5 Turbo à terme.

GPT-4o mini fait face à une concurrence redoutable, tout particulièrement de la part de Meta qui a publié Llama 3 en open source. Le LLM peut donc s’adapter très facilement aux besoins, même si la licence impose des limites quant à la commercialisation de services alimentés par Llama 3.

Wired rapporte d’ailleurs que Meta a l’intention de publier autour du 23 juillet un nouveau modèle Llama 3 beaucoup plus puissant que ceux actuellement disponibles : il compterait en effet 400 milliards de paramètres, contre 8 et 70 milliards pour les deux autres modèles de plus petites tailles. Le nombre de paramètres permet de se faire une idée des capacités d’un LLM, même si ce n’est pas le seul critère qui entre en jeu.

Lire On a testé ChatGPT 4o, et on ne peut plus s’en passer

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.


Mickaël Bazoge