À chaque génération de puce M, c’est la même histoire : Apple multiplie les déclinaisons de plus en plus puissantes. La famille M1 a ainsi connu 4 modèles (M1, M1 Pro, M1 Max et M1 Ultra), idem pour la M2. En revanche, la gamme M3 s’était contentée de trois puces (M3, M3 Pro et M3 Max), tout comme la M4, pour le moment.
Le futur Mac Pro privé d’une puce M4 Extreme ?
À l’époque des puces M2, la rumeur voulait que le constructeur dévoile une « M2 Extreme » extrêmement puissante en combinant deux M2 Ultra. Le projet est tombé à l’eau, et le premier Mac Pro de l’ère Apple Silicon s’est « contenté », si on peut dire, d’une puce M2 Ultra à l’instar du Mac Studio. Le rafraîchissement de ces deux ordinateurs, qui ont passé leur tour avec la puce M3, ne sera sans doute pas synonyme de M4 Extreme.
Selon le site The Information, Apple aurait décidé d’annuler le développement d’une telle puce cet été afin de libérer des ingénieurs pour qu’ils bûchent sur une puce AI avec Broadcom. Les priorités ont changé et désormais, la firme à la pomme mise tout sur l’intelligence artificielle générative et Apple Intelligence. La M4 Extreme aurait combiné « quatre puces plus petites ».
Si ces puces avaient été des M4 Max comme celles qui équipent les MacBook Pro haut de gamme, la M4 Extreme aurait pu intégrer un processeur comptant jusqu’à 64 cœurs ; et 160 cœurs pour le GPU ! À la place, les futurs Mac Pro et Mac Studio auront sans doute droit à des puces M4 Ultra, ce qui ne sera déjà pas mal. Et puis la question du prix se posera aussi : une M4 Ultra devrait coûter déjà bien cher, alors que dire d’une M4 Extreme.
Quant à la puce AI, elle pourrait remplacer les M2 qu’Apple utiliserait actuellement dans ses serveurs pour l’inférence, un processus par lequel un modèle préalablement entraîné applique ses connaissances pour prédire des résultats ou extraire des informations à partir de nouvelles données. Exemple typique : la génération d’image à partir d’une requête texte.
Concevoir une puce dédié totalement à l’inférence permettrait d’accélérer le traitement des données tout en réduisant la consommation d’énergie, ce qui est toujours bon à prendre. En revanche, ce silicium ne sera sans doute jamais proposé au grand public.
Pour l’entraînement de ses modèles de langage (le processus en amont de l’inférence), Apple testeactuellement des puces Amazon. Contrairement à l’entraînement, l’inférence a une problématique de confidentialité car les serveurs moulinent des données de l’utilisateur. C’est la raison pour laquelle le constructeur cherche à avoir ses propres puces.
Lire Apple dévoile Private Cloud Compute, sa solution pour que l’IA respecte votre vie privée
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : MacRumors