Nouveau rebondissement dans l’affaire de l’« Autopilot » de Tesla, ce système d’aide à la conduite qui devait permettre aux voitures électriques du groupe de rouler sans conducteur, selon Elon Musk. D’anciens salariés ou des employés toujours en poste ont accepté de témoigner, parfois à visage découvert, chez nos confrères du Washington Post, dimanche 19 mars. Et leurs mots sont sans concession : ils mettent directement en cause Elon Musk, le PDG du constructeur de voitures électriques, dans la mauvaise gestion de l’« Autopilot » mis en place en 2014, et de sa version améliorée, le « Full Self-Driving ». Non seulement ce dernier les aurait poussés à sortir ces logiciels avant qu’ils ne soient prêts, mais le rachat de Twitter l’aurait aussi détourné de Tesla. « Le système d’Autopilot ne progressait que très lentement en interne, mais le public voulait un produit entre ses mains », se remémore John Bernal, un ancien opérateur de Tesla licencié en février 2022. « Elon Musk n’arrête pas de tweeter “Oh, nous y sommes presque, nous y sommes presque” (à propos de sa promesse de conduite autonome) – mais en interne, ce n’était pas le cas », poursuit-il.
Tout était parti d’une vidéo de 2016, tweetée par Elon Musk. On pouvait y voir une Tesla « se conduisant toute seule ». Mais cette dernière avait dans les faits commis plusieurs erreurs, avant de s’écraser contre une clôture, avait expliqué le directeur du logiciel Autopilot de Tesla, Ashok Elluswamy, en juillet 2022. Pourtant, Elon Musk était allé jusqu’à déclarer, en avril 2019, que « le Full Self-Driving sera si fiable que le conducteur “pourra s’endormir” ». Mais à la place, des Tesla qui avaient actionné ce mode « autonome » ont été impliquées dans une douzaine d’accidents, dont deux mortels. De quoi attirer l’attention des autorités pénales et règlementaires qui ont ouvert des enquêtes.
Selon nos confrères, des anciens salariés auraient d’abord expliqué que Tesla n’avait pas de stratégie de développement cohérente. À la place, Elon Musk aurait, avec d’autres cadres dirigeants du groupe, testé les derniers logiciels sur sa propre voiture. Puis il aurait compilé les demandes de « réparation » à l’intention de ses ingénieurs, un process bien moins strict que celui des fabricants concurrents. Tesla aurait ensuite proposé le logiciel à 360 000 propriétaires et les aurait laissés activer ce mode à leur guise. Car dans ce système, plus la voiture est exposée à des données lors de la conduite, plus elle apprend vite. Cet apprentissage du logiciel « par essais et erreurs » signifie donc qu’il y a nécessairement des erreurs… pouvant conduire à des accidents, expliquent nos confrères.
Les Tesla privées d’un capteur essentiel
Deuxième problème : en mai 2021, Elon Musk a décidé, pour faire des économies, de supprimer les radars qui permettent de détecter les dangers à longue distance et d’empêcher les véhicules de percuter d’autres voitures. Les huit caméras, qui filment en temps réel l’activité autour des Tesla, devaient suffire. Cette décision aurait laissé sans voix de nombreux ingénieurs. Car sans radars, les Tesla pourraient plus facilement commettre des erreurs de perception, notamment si les caméras sont voilées par des gouttes de pluie ou même par la lumière du soleil. Mais Elon Musk n’aurait pas tenu compte des réticences de ces ingénieurs. Pire, il aurait licencié ceux qui s’opposaient à ce choix. « Je savais simplement que mettre ce logiciel dans les rues ne serait pas sûr », témoigne l’un d’entre eux. « Vous ne pouvez pas prédire ce que la voiture va faire », s’inquiète-t-il.
Selon les entretiens menés avec une douzaine d’anciens employés, c’est à partir de cette décision que les accidents se seraient multipliés. À la même période, le programme d’essai du Full Self-Driving serait passé de quelques milliers à des dizaines de milliers de conducteurs. Parmi les incidents relevés : des voitures qui s’arrêtent brusquement face à des dangers qui n’existent pas, des erreurs d’interprétations de panneaux de signalisation, des véhicules de pompiers qui n’auraient pas été détectés à temps, selon les différentes plaintes déposées.
La réduction des effectifs
Autre élément qui aurait fait fuir des salariés : un logiciel installé fin 2020 sur les ordinateurs des équipes travaillant sur l’Autopilot, qui surveillait les frappes de clavier et les clics de souris. Si la souris ne bougeait pas pendant un certain temps, une minuterie démarrait – et les employés pouvaient être sanctionnés, voire licenciés, si ces périodes d’inactivité duraient trop longtemps, selon d’anciens employés. Tesla a répondu qu’il ne s’agissait que d’améliorer la facilité d’utilisation de ce logiciel.
Enfin, quatrième élément mis en cause par ces salariés : une réduction des effectifs. Ces derniers mois, l’équipe dédiée à l’Autopilot aurait été délestée de plusieurs membres. Et selon des sources anonymes et des documents consultés par nos confrères, des dizaines d’ingénieurs de Tesla auraient effectivement reçu la consigne de basculer sur Twitter pour retravailler son code, à partir d’octobre 2022, date du rachat du réseau social. Preuve de ce changement de priorité : la fréquence des mises à jour de l’Autopilot, habituellement publiées toutes les deux semaines. Ces dernières ont brusquement été espacées. Tesla, qui n’a pas souhaité répondre aux sollicitations de nos confrères, a simplement déclaré que les véhicules utilisant le « Full Self-Driving » ont cinq fois moins d’accidents que les véhicules fonctionnant sans ce type de logiciel. Pas sûr que cela convainc les propriétaires de Tesla. Preuve que les temps ont changé : après avoir été des fervents défenseurs de la marque, beaucoup ont tout simplement cessé de croire qu’un jour, leur Tesla conduirait effectivement… toute seule.
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source : Washington Post
J’ai toujours dit que ce FSD est à ce jour une pure escroquerie. Je plains ceux qui ont payé pour un logiciel qui n’est pas prêt d’arriver en Europe, d’ici là les propriétaires lésés auront déjà revendu leurs véhicules… Etonnament aucune class action ouverte aux US
Ben non, car ça fonctionne pas trop mal aux USA Votre article est vraiment excessif, l suffit de voir les 400 000 utilisateurs du FSD bêta aux USA, comme Whole Mars Catalog ou autre. Il y a toujours quelques bugs, mais aussi de longues séquences d’autonomie, un réel progrès déjà comparé à la concurrence, ceci grâce à l’IA.
Quant aux européens, c’est un problème juridique, il serait temps que la vieille Europe se réforme un peu, car on est en train de rater un tournant face aux américains, chinois, coréens.
Je pense qu’à force de voir une paille, vous êtes en train de vous assomer avec une grosse poutre.