Voilà qui risque de refroidir les adeptes de la conduite autonome. Des chercheurs en sécurité de Keen Security Lab ont montré que l’on pouvait duper le pilote automatique d’une Tesla avec de petits stickers collés sur la chaussée. Dans une vidéo de démonstration, on voit ainsi une Tesla Model S changer de voie de circulation et se retrouver à contresens.
https://www.youtube.com/watch?v=6QSsKy0I9LE?start=84
Comme on voit dans la vidéo, cette erreur est induite par trois petits autocollants blancs collés en diagonale sur la voie de circulation de la Tesla. Le pilote automatique les interprète comme une ligne continue, ce qui l’incite à braquer vers la gauche. Un humain, à l’inverse, ne se serait certainement pas laissé tromper de la sorte.
Dans son document d’analyse, Keen Security Lab explique que ce hack fonctionne parce que la reconnaissance des lignes de voies de circulation est – paradoxalement – trop robuste. Durant leurs tests, les chercheurs ont d’abord essayé de trouver des formes de lignes qui ne seraient pas reconnues, parce que entrecoupées ou effilochées. Mais il n’y avait rien à faire : impossible de tromper facilement le pilote automatique. « Nous supposons que cela provient du fait que Tesla a ajouté de nombreuses lignes anormales (brisées, obstruées) dans ses données d’apprentissage », soulignent les chercheurs.
Le pilote automatique est surentraîné
Du coup, les chercheurs ont essayé de prendre le problème à l’envers : existe-t-il des marquages qui passeraient inaperçus pour les humains, mais que le système verrait comme une ligne continue ? La réponse est oui. Le pilote automatique de Tesla a été tellement surentraîné que quelques petits marquages sur la chaussée sont parfois interprétés comme une ligne continue, un peu comme dans un jeu de points à relier. Interrogé par Ars Technica, Tesla estime toutefois que cette attaque n’est pas un vrai problème, car le conducteur peut à tout moment prendre la main sur le système d’assistance à la conduite. Cette réponse est un peu courte, car il est quand même gênant que le conducteur soit contraint de contrecarrer les éventuelles erreurs du pilote automatique.
Les chercheurs de Tencent ont également réussi à tromper un autre système d’intelligence artificielle, à savoir le dispositif de détection de pluie. Celui-ci permet de lancer de manière automatique les essuie-glaces et s’appuie sur une caméra fisheye installée derrière le rétroviseur. En analysant ce système, ils ont réussi à trouver un design graphique que la voiture interprète comme des gouttes tombées sur le pare-brise. On voit dans la vidéo que ce leurre, affiché sur un grand écran posé devant la voiture, provoque le démarrage des essuie-glaces. Dans la vraie vie, une telle attaque est évidemment difficilement envisageable.
Ce n’est pas première fois que des chercheurs en sécurité tentent de duper des systèmes de reconnaissance d’image en modifiant l’aspect graphique de l’environnement. En 2017, des analyses ont montré qu’il était possible de fausser l’interprétation des panneaux de signalisation en apposant de petits autocollants noir et blanc.
Enfin, les chercheurs ont montré comment ils arrivent à piloter la voiture au travers d’une manette de jeu. Celle-ci est connectée en Bluetooth à un terminal mobile, relié lui-même aux fonctions de pilote automatique de la Tesla par Wi-Fi ou 3G. Ce n’est possible que sur les vieux firmware, car le hack repose sur une faille critique révélé en 2018 et corrigée depuis. Les véhicules actuels ne sont donc pas vulnérables, mais c’est toujours très impressionnant à regarder.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.