On avance la main, on frotte le pouce sur l’index et hop, c’est la musique qui démarre ou le SMS qui s’affiche. C’est magique, presque révolutionnaire. A l’occasion de la conférence Google I/O, le géant de la Silicon Valley a montré les évolutions de son projet de recherche Soli, et ceux-ci sont tout simplement époustouflants. Piloté par le laboratoire ATAP, ce projet veut utiliser le radar comme nouveau moyen d’interaction homme-machine, en complément des commandes tactiles ou vocales existantes.
Soli a été présenté pour la première fois en 2015. Un an plus tard, Google vient maintenant de dévoiler deux prototypes: une smartwatch LG et une enceinte connectée JBL. « Nous voulions intégrer cette technologie dans une smartwatch, car cela montrerait qu’elle pouvait alors être intégrée dans n’importe quoi », explique Ivan Poupyrev, directeur du projet Soli au sein d’ATAP, lors de la session de présentation à Google I/O.
Miniaturisation des circuits
Pour réussir ce tour de force, Google ne pouvait pas utiliser la puce contenue dans le kit de développement diffusé en octobre 2015, trop gourmande en énergie. Il a fallu miniaturiser les circuits et optimiser les algorithmes. Chacun des deux prototypes est ainsi doté d’un exemplaire de la seconde génération de puce radar, développée en partenariat avec le fabricant Infineon. Celle-ci est trois fois plus petite et consomme 22 fois moins de puissance, sans pour autant perdre en qualité de détection.
Le résultat est incroyable. Lors de la démonstration, au fur et à mesure que l’un des ingénieurs avance la main vers la smartwatch, des données s’affichent avec plus en plus de précisions. Pour naviguer parmi les différentes complications de la montre (c’est-à-dire les fonctions d’affichage), il lui suffit de faire glisser son pouce sur son index. Et pour en sélectionner une, il tapote du pouce sur l’index.
Le principe est similaire avec l’enceinte. Plus il avance la main, plus l’enceinte s’illumine. Un premier claquement des doigts, et elle s’allume. Un second claquement, et un premier morceau démarre. Pour l’arrêter, il suffit de balayer la main devant l’enceinte. « La distance de détection est de maximum 15 mètres, ce qui permet d’envisager des choses intéressantes », souligne l’ingénieur.
Ces démonstrations peuvent être visionnées dans une vidéo YouTube mise en ligne par Google. La présentation du projet Soli démarre à 20min33s. Les démonstrations se situent respectivement à 28min50s et 32min.
Cette présentation montre bien tout l’avantage du radar. A l’instar des commandes vocales, il permet de faire l’impasse sur les contrôles tactiles qui, sur un écran de montre, prennent beaucoup trop de place. Par ailleurs, utiliser des gestes peut se révéler plus discret et plus rapide que de dire « OK Google, montre-moi les messages ».
Malheureusement, il ne s’agit là pour l’instant que de prototypes. Aucune commercialisation n’est prévue à ce stade. Les recherches doivent continuer pour pouvoir réellement intégrer le radar dans des produits grand public. L’enjeu est énorme. Interrogé par The Verge, Ivan Poupyrev pense que les ordinateurs vont devenir de plus en plus petits jusqu’à devenir presque invisible dans notre quotidien. Ils seront intégrés dans les objets, les vêtements, les meubles, les habitations, etc. Pour autant, il faudra bien interagir avec toute cette informatique omniprésente. Et selon lui, le radar est une piste au moins aussi intéressante que la voix.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.