Parmi la myriade de nouveaux processeurs annoncés par Intel en ce début d’année 2010, certaines références nous ont marqués. Fréquence de fonctionnement record ? Cœurs supplémentaires ? Mémoire cache XXL ? Nouvelles références marketing encore plus incompréhensibles ? Rien de tout cela. La surprise est à la fois technologique et stratégique : Intel profite du renouvellement de ses gammes pour intégrer un processeur graphique dans la plupart de ses puces. Est-ce une révolution pour les utilisateurs enthousiastes que nous sommes ? Oui et non. Oui car, à court terme, nous devrions voir apparaître de nouveaux ordinateurs plus compacts, plus économes en électricité et moins chers ? une seule puce pour tout faire. Non car le gain de performances en 3D est quasi nul. Ce n’est pas pour autant qu’il faut sous-estimer ces nouvelles puces. Celles-ci préfigurent en effet l’avenir de la micro-informatique grand public où processeur central (CPU pour Central Processing Unit) et graphique (GPU pour Graphics Processing Unit) se partagent intelligemment tous les calculs de l’ordinateur.
Les embûches du GPU
Il y a plus d’un an (voir l’Oi n° 212), nous vous expliquions le concept de GPGPU (General-Purpose Processing on GPU ou calcul générique sur un processeur graphique). Il permet d’accélérer certaines tâches du PC en utilisant les unités de calcul de la carte graphique habituellement dédiées à la 3D. Si cette technologie s’avère prometteuse, elle rencontre deux écueils pour s’imposer face aux bons vieux processeurs de nos PC. Tout d’abord, architecture massivement parallèle oblige, il faut réécrire en totalité un logiciel – le repenser en somme – pour qu’il puisse tirer profit de la puissance d’un GPU. Facile en théorie, la réalité est plus compliquée puisque beaucoup de calculs ne peuvent être scindés en une multitude de sous-opérations à exécuter en parallèle. Voilà pourquoi certains éditeurs, qui rechignent déjà, pour des questions de coût, à adapter leurs logiciels à nos architectures processeur multicœur, font rarement appel à la carte graphique pour motoriser leurs programmes. Et quand ils font le grand saut du GPU, c’est uniquement pour certaines fonctions qui se prêtent bien à la parallélisation (encodage vidéo, filtres photo, calcul scientifique, etc.). Second écueil au développement du GPGPU : l’absence de brique universelle pour faciliter la conception de logiciels compatibles. Nvidia et ATI, les principaux fabricants de puces graphiques du marché, n’ont pas réussi à s’entendre dès le début sur une technologie commune. De quoi refroidir l’ardeur des consommateurs, des développeurs et des éditeurs… jusqu’à ce que Microsoft mette tout le monde d’accord fin 2009, avec son API DirectX 11. Mais que de temps perdu pour les fabricants de GPU, qui ont sans doute raté là une opportunité de prendre une grosse part du gâteau à Intel. Un délai que le géant de Santa Clara a mis à profit pour concevoir ses premières puces CPU-GPU et marier enfin ces deux technologies avec la conscience que le CPU ne règne plus forcément sans partage sur la plate-forme PC.
Sous le capot
Quels sont les nouveaux processeurs reposant sur cette architecture et comment fonctionne-t-elle ? De l’Atom réservé aux miniportables low-cost au Core i7 dédié aux PC ultrapuissants, Intel affiche pas moins de vingt-sept références de processeurs pourvus d’une puce graphique intégrée (http://tinyurl.com/yjvrtqs). Le californien étant devenu un spécialiste des gammes incompréhensibles depuis quelques années, il n’a pas jugé bon de différencier clairement un processeur tout-en-un d’un CPU classique. Dommage pour le consommateur qui n’y comprendra plus rien, ces nouvelles puces cohabitant dans le commerce avec d’anciennes références de processeurs (Atom et Core). La nouvelle offre Core est segmentée en trois familles (Core i3, i5 et i7), aussi bien pour les PC de bureau (nom de code Clarkdale) que les portables (Arrandale). À l’intérieur de ces puces cadencées de 1,06 à 3,43 GHz, on retrouve un CPU classique double cœur gravé en 32 nanomètres (dérivé de l’architecture Nehalem, voir ci-contre). Ce CPU est relié par une interface spécifique à une deuxième puce gravée en 45 nm qui intègre : le processeur graphique (GPU) ; le contrôleur mémoire du PC ; une interface PCI Express 16x, pour ajouter éventuellement une carte graphique plus puissante à l’ordinateur ; une interface DMI (Direct Media Interface), qui sert habituellement à relier le northbridge du chipset de la carte mère (interface PCI-Express, contrôleur mémoire, etc.) à son southbridge (entrées/sorties USB, Sata, réseau, etc.).Signalons au passage que la version mobile de la nouvelle architecture Core est capable d’augmenter et de diminuer intelligemment la fréquence d’horloge de sa puce graphique et de son CPU selon l’usage de l’utilisateur. Ainsi, lorsque vous jouez, le processeur fonctionne à basse vitesse alors que la puce graphique tourne à son maximum autorisé* (Intel limite la consommation électrique ? et donc thermique ? de ses puces selon ses gammes, de 18 à 87 watts). Inversement, si vous travaillez avec un logiciel très gourmand en ressources CPU, celui-ci fonctionnera à une fréquence d’horloge supérieure à celle annoncée, alors que la puce graphique sera quasiment à l’arrêt.
Une étape intermédiaire
Bref, vous l’aurez compris : Intel a fait le choix d’intégrer dans le processeur une grosse partie des composants habituellement réservés au chipset du PC, laissant par là même un seul composant simplifié sur la carte mère en charge des entrées/sorties (USB, Serial Ata, réseau, PCI Express 1x, HDMI, DVI et son). Et si certaines mauvaises langues reprochent au fondeur d’avoir simplement collé deux puces sur un seul support, il y a fort à parier qu’il ira beaucoup plus loin avec sa prochaine génération de processeurs. Avec son expérience acquise et une maîtrise des procédés de fabrication toujours plus pointue (32 nm aujourd’hui, 22 nm demain), Intel a toutes les cartes en main pour fusionner d’ici à deux ans tous ces composants dans une seule et unique puce microscopique. Du côté des processeurs de la gamme Core, signalons que le Core i3 s’adresse aux particuliers qui ne jouent pas, ou très peu (quelques jeux en flash sur Internet). Le Core i5 répond, toujours selon son concepteur, aux besoins de la plupart des utilisateurs, permettant même de jouer en moyenne définition à quelques jeux PC peu gourmands en 3D comme World of Warcraft ou les Sims 3. Enfin, le Core i7 cible les fondus de puissance et de jeux vidéo récents.
La concurrence assommée ?
Des promesses alléchantes auxquelles Intel ne répond qu’en partie. Car si du côté des performances CPU, il n’y a rien à redire, l’intégration de la puce graphique se révèle en pratique peu efficace. La puissance délivrée est suffisante pour décoder un film HD sur Blu-ray ou pour faire tourner correctement des jeux vidéo peu exigeants en 3D. Mais pour jouer plus sérieusement en haute et très haute définition, vous serez toujours obligé de choisir un PC avec une carte 3D dédiée ou d’en installer une vous-même.En intégrant aussi une puce graphique dans ses processeurs low-cost Atom (voir notre test page 82), Intel commence à inquiéter sérieusement le marché, ne laissant plus beaucoup de place à la concurrence sur le secteur de l’entrée de gamme. Notamment pour les concepteurs de chipsets (Nvidia, Sis, etc.) qui vont voir leurs parts de marché s’écrouler, les fabricants de PC cherchant en permanence à réduire leurs coûts pour afficher des prix toujours plus bas et essayer ? en vain ? ? de retrouver leurs marges d’antan. Mais si Intel semble noyauter le marché de l’entrée de gamme et une partie du moyen de gamme avec une offre économiquement alléchante, la concurrence a toujours son mot à dire sur des usages bien précis. Performances 3D, effets photoréalistes (Physx, DirectX 11, etc.) et calculs par GPU restent l’apanage des grands fabricants de processeurs graphiques que sont Nvidia et AMD/ATI (voir notre comparatif page 64). Mais jusqu’à quand ? Voilà la question qui dérange, car Intel, avec son projet Larrabee 2, prépare en parallèle son grand retour dans le monde de la 3D. Si celui-ci s’avérait triomphant, il y a fort à parier que l’acteur du marché qui ne maîtrisera pas l’intégration d’un GPU dans un CPU disparaisse fort vite du marché… Au grand dam du consommateur ?* 500 à 900 MHz selon le modèle de processeur
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.