Tous les pionniers de la micro semblent vivre dans un paradis, la Silicon Valley. En effet, c’est un peu le berceau de la micro, mais il faut savoir que la Silicon Valley n’existe pas sur le plan administratif, c’est une invention forgée de toutes pièces. L’expression est née en 1969, sous la plume de Don Hoeffler, un journaliste du magazine Electronics News . C’est une région d’environ 30 km de long sur 15 km de large, à environ 50 km au sud de San Francisco, en Californie. Les noms des villes rappellent l’influence espagnole : Palo Alto, San Jose, Santa Clara, Cupertino.A quoi ressemble l’endroit ? A une suite de villes de tailles moyennes, autour de 50 000 habitants, où sont concentrées un nombre incroyable de sociétés qui travaillent dans le domaine des hautes technologies, principalement l’électronique et les biotechnologies. Pour visiter la Silicon Valley en partant de San Francisco, il faut sortir de l’autoroute 101 et rejoindre un grand boulevard à l’américaine, deux fois trois voies : El Camino Real. Et là, on va traverser le c?”ur de la Silicon Valley, en commençant par Palo Alto, avec l’université de Stanford.Stanford, c’est la meilleure université du monde ? En tout cas, si on compte en nombre d’enseignants ayant reçu le prix Nobel, elle figure parmi les meilleures. Les 15 000 étudiants bénéficient de conditions de rêve, un rêve que leurs parents paient très cher puisque c’est une université privée. Une année d’étude revient à plus de 50 000 dollars. La grande rivale, Berkeley, au nord de San Francisco, est publique et… plus abordable.C’est Stanford qui est à l’origine de la Silicon Valley ? En tout cas, ce sont deux étudiants de Stanford, David Packard et William Hewlett qui ont fabriqué en 1938, dans un garage de Palo Alto, un oscillateur qui sera au démarrage de Hewlett-Packard.Déjà dans un garage…Eh oui, les garages ne sont pas une légende. Tenez, c’est dans un garage de Palo Alto que Steve Jobs et Stephen Wozniak ont assemblé le premier Apple. A l’époque, Steve Jobs travaillait chez Atari, et Wozniak chez Hewlett-Packard.Revenons en 1984, c’est bien cette année que sort le Macintosh ? Et ce fut un événement énorme. D’abord à cause de la date, car 1984 est le titre d’un roman de George Orwell qui décrit un monde totalitaire dominé par un tyran tout puissant, Big Brother. Pour lancer le Macintosh, Apple fait tourner par Ridley Scott, le réalisateur d’Alien et de Blade Runner, un spot génial et terrifiant. Il ne montre pas le Macintosh, et se termine par ‘ Vous allez voir pourquoi 1984 ne sera pas comme 1984. ‘ Il faut interpréter le message comme une identification d’IBM à Big Brother.Donc Apple joue déjà la carte de la différence. Mais la machine elle-même…C’est un choc au premier coup d’?”il : monobloc, transportable grâce à une poignée moulée…, il suffit de brancher la souris et la prise secteur pour la mettre en route. A l’intérieur, un processeur Motorola 68 000 à 7,8 MHz, très rapide pour l’époque, une mémoire vive de 128 Ko, un lecteur de disquettes 3,5 pouces de 400 Ko. L’écran de 9 pouces, monochrome, affichait 512 ?- 342 points.Vous ne m’expliquez pas vraiment la différence avec l’IBM PC ? Et pourtant, elle est fondamentale. Le système est fondé sur la métaphore du bureau, avec les dossiers, la corbeille, l’horloge-calendrier, le bloc-notes et la calculette. Cherchez la même chose sur un PC de l’époque, ça n’existe pas ! Et puis deux logiciels sont fournis avec le Mac : un traitement de texte, MacWrite, et un logiciel de dessin, MacPaint. La grande nouveauté était l’ergonomie et la cohérence de l’ensemble : les fonctions graphiques de base, fenêtres, menus, gestion des caractères, outils de dessin étaient contenus dans une mémoire morte et, donc, communes à tous les logiciels.Vous avez vraiment ressenti cette cohérence, immédiatement ? Oui, dès mon premier contact avec le Macintosh. C’était lors de la cérémonie d’annonce en France du Macintosh. Imaginez le tableau : un événement mondain, avec des centaines d’invités dans un restaurant en bas des Champs-Elysées. Profitant de la fin du repas, je me suis installé avec un autre journaliste devant l’une des machines en démonstration. Nous avons commencé à essayer toutes les options, de manière systématique. A 2 heures du matin, nous étions les derniers invités, accrochés à la machine, refusant de mettre un terme à notre exploration. Finalement, un employé d’Apple est venu débrancher la machine en arrachant la prise, et on s’est retrouvés sur la place de la Concorde, complètement déserte.Fenêtres, menus, icônes… Tout cela paraît banal aujourd’hui ! Justement, ça ne l’était pas. Par exemple, on pouvait écrire une opération numérique sur le bloc-notes, la copier et la coller sur la calculette pour en connaître le résultat, puis faire à nouveau un copier-coller entre la calculette et le traitement de texte. De même, on pouvait dessiner dans MacPaint et faire un copier-coller du dessin dans MacWrite. Autre particularité, l’imprimante à aiguille ImageWriter qui se branchait sur le Macintosh reproduisait, au pixel près, ce qui était à l’écran. Comble du luxe, on pouvait même imprimer, au choix, en format portrait ou en format paysage.Donc ça a été un succès…
Dans les tout premiers mois, évidemment. Mais la machine a connu un décollage difficile : à 23 500 francs, les acheteurs potentiels n’étaient pas si nombreux. En plus, le choix de logiciels était très limité, bien que Microsoft ait été le premier à faire l’effort d’adapter son tableur Multiplan et son langage Basic. Il faudra attendre la sortie d’une version avec 512 Ko de mémoire, puis les premiers disques durs externes pour que la machine s’impose comme une alternative crédible au monde du PC.1984, en France, c’est aussi l’année du plan Informatique pour tous…
Que je qualifierai d’un intermède cocasse. Dans le sillage du Centre mondial informatique et ressources humaines, créé en 1981 par Jean-Jacques Servan-Schreiber, est née l’idée d’informatiser les écoles. En 1984, arrive l’heure du choix. Les idéalistes proposent de construire une usine Apple en France pour produire des Macintosh simplifiés.Mitterrand aurait même rencontré Steve Jobs ! C’est une légende tenace. On parle même d’un dîner entre Mitterrand et Steve Jobs qui auraient ensuite survolé, en hélicoptère, le site de la future usine Apple avec Gaston Deferre et Jean-Jacques Servan-Schreiber. On imagine les réactions de Thomson, alors entreprise nationalisée, qui espère bien vendre ses ordinateurs familiaux. Finalement, les tenants de la voie franco-française l’emportent, avec une solution hybride : un poste pour le maître, de type PC, Goupil de SMT ou Sil’Z de Léanord, et des postes pour les élèves en réseau, à base de TO7 de Thomson. Cette configuration dégoûtera de l’informatique des générations d’élèves et de maîtres !Pendant ce temps-là, le PC poursuit son implantation ? La situation est très contrastée entre les Etats-Unis et l’Europe. Là-bas, IBM a imposé son standard en un an. Hors de la compatibilité, point de salut. Compaq se lance début 1982, en proposant un ordinateur qui n’existe pas dans le catalogue d’IBM : une machine monobloc transportable qui pesait presque 15 kilos. Et IBM fait évoluer sa gamme, en produisant son PCXT, avec des disques de 10 Mo, puis 20 Mo. En Europe, le délai de deux ans avant les débuts de l’IBM PC laisse la porte ouverte pour des machines non compatibles, comme le Victor Sirius S1, et l’Apricot F1. Atari avec le 520 ST, et Commodore avec l’Amiga 1 000, se disputent le marché de l’informatique familiale. Finalement, c’est l’anglais Amstrad, en 1986, avec son PC 1512 à moins de 10 000 francs qui va populariser vraiment les ordinateurs compatibles.Et pour les logiciels, on assiste au même phénomène. Inévitablement, les pionniers laissent la place à des standards hégémoniques. Dans le domaine du traitement de texte, WordStar se voit concurrencé par Word, de Microsoft, et surtout par Word-Perfect. Bien que rébarbatif et difficile d’accès, Worderfect, qui a été créé par des mormons, est particulièrement complet. Il connaîtra un énorme succès aux Etats-Unis, les Européens étant plus sensibles à Word. De même, chez nous, Microsoft remportera la partie dans le domaine des tableurs avec Multiplan, alors que Lotus 1-2-3, épaulé par une carte graphique monochrome nommée Hercules, deviendra l’outil indispensable des cadres dynamiques américains.Donc, le micro-ordinateur devient l’outil des cadres. Surtout aux Etats-Unis. La banalisation de la micro-informatique va provoquer en effet un phénomène imprévisible a priori : les hommes vont se mettre au clavier. L’usage des machines à écrire était pratiquement réservé aux femmes, avec un métier aujourd’hui disparu, la dactylographie. Cette mutation va prendre tout le monde par surprise. Le directeur d’une école de dactylographie alors très célèbre pouvait déclarer que ‘ les femmes ont mis dix ans pour assimiler l’usage de la touche d’effacement sur les machines à écrire électriques, alors, le micro-ordinateur, c’est trop compliqué pour elles ‘ . En écho, le président d’une marque hexagonale avouait ne jamais utiliser ses propres micro-ordinateurs, laissant ‘ à sa secrétaire ‘ le soin de mettre en forme ses écrits.Si nous en venions à Windows. Il apparaît vers 1985, non ? Vous avez raison : Windows 1.0 sort 1985 et Windows 2.0 en 1987, mais ils n’ont aucun succès. Disons qu’il faut attendre 1989 pour que Windows équipe un PC sur cinq. Et ce n’est pas un système d’exploitation, mais tout bonnement une interface greffée sur MS-Dos. Franchement, par rapport à l’interface graphique du Macintosh et même à celles des Atari ST et Amiga, Windows fait rustique. Microsoft s’est surtout battu sur le front de la bureautique en misant sur Excel et Word, les deux vaches à lait de l’époque.Et pourtant, Windows va réussir à s’imposer. En effet, grâce à un marketing musclé, Microsoft parvient rapidement à convaincre l’industrie que Windows 3 est LE standard. Le mot d’ordre est : ‘ Les logiciels qui ne passeront pas à Windows disparaîtront… ‘ Vous imaginez bien que les éditeurs, sensibles à l’argument, emboîtent le pas. En quelques mois, la plupart des grands éditeurs annoncent leurs logiciels en versions ‘ compatibles avec Windows ‘.Mais à partir de quand peut-on dire que Windows devient un standard ? Dès 1991. D’autant que Microsoft a bien ficelé son affaire. En effet, il ‘ propose ‘ aux constructeurs de PC d’installer Windows en standard. Il est évident que vendre un PC avec une interface graphique et une souris est plus facile qu’avec le triste MS-Dos.Victoire totale, donc ! Oui, mais non sans mal. Un responsable de Microsoft m’a confié que, même chez Microsoft, les programmeurs traînaient les pieds, en particulier l’équipe de développement de Word, qui étaient alors les vedettes. Car programmer pour Windows obligeait à utiliser de nouveaux outils. La première version de Word pour Windows arrive en 1989, et Excel l’année suivante. Coup de chance pour Microsoft, ses deux principaux concurrents, WordPerfect et Lotus 1-2-3 sont encore plus réticents à passer sous Windows. Et finalement la victoire de Windows deviendra, aussi, une victoire de Word et d’Excel.Microsoft est donc gagnant sur toute la ligne ? Non, heureusement, la réalité n’est pas si simple. En particulier, Microsoft a raté la PAO… enfin la publication assistée par ordinateur, si vous préférez. L’argument de l’époque était que la mise en page ne constituait pas une application en tant que tel, et que les outils de mise en page devaient se retrouver dans tous les logiciels. Cette erreur est probablement très profonde, c’est une véritable méconnaissance du monde de la typographie, de la mise en page et de l’imprimerie.C’est donc Apple qui s’est imposé dans la PAO ? Rétrospectivement, c’est une sorte de miracle : plusieurs éléments disparates se combinent. A l’origine, deux ingénieurs du Parc de Xerox : John Warnock et Charles Geschke, qui travaillent sur le langage de commande de l’imprimante à laser Xerox. Ils décident, en 1982, de quitter Xerox pour créer Adobe. Dès 1983, Steve Jobs les rencontre et découvre Postscript, leur langage de description de page. C’est en 1985 qu’il devient possible de fabriquer une imprimante à laser de bureau incluant Postscript : la LaserWriter. Sa résolution est de 300 points par pouce, absolument incroyable pour l’époque.C’est un succès ? Pas encore, car la bête est très chère, plus de 70 000 francs, de quoi faire réfléchir les plus enthousiastes. Il faut dire que la LaserWriter est un vrai ordinateur, avec son processeur 68 000 à 12 MHz et ses 2 Mo de mémoire, beaucoup plus que les ordinateurs de l’époque. La ‘ merveille ‘ se connecte à travers le réseau local AppleTalk, ce qui permet à plusieurs Macintosh, livrés eux aussi en standard avec AppleTalk, de partager l’imprimante.Vous pouvez revenir sur ce fameux Postscript ? C’est un langage de description de page, qui représente tous les éléments de la page, caractères compris, sous forme de courbes. Le langage est interprété par le processeur de l’imprimante. Ainsi, quand Linotype lance, en 1986, sa Lino 100, première photocomposeuse adoptant Postscript, le document imprimé est exactement le même que sur la LaserWriter, à la résolution près.Encore un métier bouleversé…C’est peu de le dire : tous les arts graphiques changent de visage. La typographie, l’art de créer des polices de caractères, devient accessible à tous, pour le meilleur… et parfois le pire. La photocomposition et ses clavistes doivent se reconvertir, ainsi que les maquettistes. Et à mesure que les machines gagnent en mémoire, la retouche photo devient elle aussi un métier de clavier et d’écran, avec le logiciel Photoshop. Enfin le logiciel Illustrator obligera aussi les graphistes à changer d’outils. Et au-delà des métiers, c’est le statut même du document imprimé qui change de nature au sein de l’entreprise : la moindre PME se doit d’avoir en interne sa petite équipe de graphistes, regroupée autour d’un réseau de Macintosh.Nous sommes à l’aube d’un autre bouleversement, celui d’Internet…Et pas des moindres, mais je vous en parlerai la prochaine fois.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.