01 Informatique : N’est-ce pas normal que l’homme doive s’adapter à la machine, au clavier, à l’écran ?Gérard Bailly : Tout le monde se souvient du film Brazil, où les claviers et écrans miniaturisés étaient rendus accessibles – ou
‘ affordables ‘ – aux employés de bureau par l’emploi de vieilles machines à écrire et de grosses loupes. Dans ces images, on perçoit bien le concept d’‘ affordance
humaine ‘, très lié aux interfaces homme-machine – ou IHM – du futur.A quels sens pensez-vous plus précisément ?D’abord à la parole, éternel serpent de mer des technologies vocales, dont on annonce l’invasion depuis dix ans. Puis au geste ou à la saisie de lettres manuscrites, comme cela existe déjà sur assistant personnel. Aux empreintes
digitales, pour aboutir à des accès sécurisés. Ou, enfin, au regard, et même à la langue, qui peut donner des ordres très précis à des palais artificiels.Les objets communicants sont donc des interfaces ?La notion d’objet communicant est plus large. Elle se définit comme le croisement de la miniaturisation des composants et des technologies de traitement de l’information avec le développement du sans-fil. Cela couvre un grand nombre
d’applications de la vie quotidienne : vêtements communicants, réfrigérateurs intelligents, environnements ambiants en entreprise…En quoi les directeurs informatiques des entreprises sont-ils concernés ?Aujourd’hui, de nouveaux concepts permettent de répondre aux besoins de groupes d’utilisateurs de plus en plus larges. L’appréhension des problèmes à résoudre s’est affinée, et les applications industrielles se sont multipliées. Grâce
à ces moyens nomades, tout objet physique peut percevoir, analyser et interagir avec d’autres objets, et dans un système d’information local ou global – via le web, par exemple.Il s’agit donc aussi de bâtir des services mobiles orientés vers le partage d’informationOui, mais avec une dimension de capacité inhérente aux objets à communiquer entre eux et avec leurs partenaires humains ! Nous y sommes presque dans l’automobile, déjà truffée de capteurs sur ses composants internes,
l’environnement (la pluie, le GPS, l’état de la route) et le conducteur (niveau d’endormissement par détection des saccades oculaires).A l’inverse, existe-t-il des objets qui savent si l’humain s’intéresse à eux, les désigne, ou leur intime des actions ?C’est ce que nous cherchons à développer. Les interfaces actuelles des systèmes d’information exploitent peu les signaux émis et reçus par nos cinq sens. Pour l’instant, on tape sur un clavier, on pointe avec une souris, et l’on
regarde un écran. Les paradigmes de réalité virtuelle ont permis, dans un premier temps, d’immerger l’utilisateur dans un univers sensoriel proche du monde réel, mais avec des équipements onéreux et invasifs.Que proposez-vous ?Pour désigner quelque chose ou quelqu’un, nous utilisons indifféremment le geste, la direction de la tête ou du regard, la voix, voire les deux ou même les trois à la fois. Un objet doté d’une sensibilité à la direction du regard, du
mouvement et de la voix sait donc qui veut l’information et où la délivrer sans que l’homme n’ait à s’encombrer d’un assistant personnel ou autre clavier de commande. C’est à ce prix que l’informatique peut disparaître de l’environnement.Existe-t-il des exemples déjà réalisés ?Nous travaillons sur un projet de robot mobile autonome, doté d’un écran orientable, faisant office de guide de musée. Le dialogue humain se déroule généralement en face à face : le robot localise son interlocuteur par le son,
puis par l’image, et il oriente son écran vers lui. S’engage alors un dialogue, où chacun désigne et commente des objets du monde réel – en l’occurrence, les ?”uvres d’art désignées du doigt, de la voix ou par faisceau laser. L’écran
affiche aussi des icônes, sur lesquelles le regard porté ouvre à des informations complémentaires.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.