La conduite autonome de Tesla est à nouveau dans la tourmente. Après plusieurs accidents survenus en circulation, la NHTSA a ouvert une vaste enquête sur près de 2,9 millions de véhicules. Le système Full Self-Driving, vanté comme révolutionnaire, est désormais soupçonné de multiplier les violations du Code de la route.
Les voitures autonomes de Tesla bafouent le Code de la route

Le 9 octobre 2025, l’agence américaine de la sécurité routière (NHTSA) a officiellement annoncé une enquête préliminaire sur la conduite autonome de Tesla. Près de 2,9 millions de voitures sont concernées, selon Reuters. Cette procédure vise à déterminer si le système Full Self-Driving (FSD) a commis des infractions pouvant mettre en danger la sécurité routière. Un nouveau coup dur pour le constructeur d’Elon Musk qui perd du terrain un peu partout dans le monde.
Code de la route : Une enquête d’ampleur inédite sur la conduite autonome
L’enquête ouverte par la NHTSA, via son Office of Defects Investigation (ODI), porte sur tous les véhicules Tesla équipés du système Full Self-Driving (Supervised ou Beta). Cette décision fait suite à 58 signalements d’incidents impliquant la conduite autonome, dont 14 collisions ayant blessé 23 personnes, selon Associated Press. Ces données, encore provisoires, concernent aussi bien des Modèl 3 que des Model Y et Model S… soit l’ensemble de la gamme Tesla.
Les autorités américaines soupçonnent le logiciel FSD d’exécuter des manœuvres « constituant des violations de la sécurité routière », selon la formulation officielle de la NHTSA. Dans un communiqué cité par The Cooldown, l’agence explique ouvrir une Preliminary Evaluation « pour évaluer l’étendue, la fréquence et les conséquences potentielles sur la sécurité de ces comportements ». Parmi les incidents recensés figurent des franchissements de feux rouges, des changements de voie en direction du trafic opposé et des arrêts intempestifs au milieu d’intersections, d’après The Washington Post.
Tesla : des manœuvres illégales détectées sur la route
Les premières analyses de la NHTSA décrivent plusieurs situations graves. Dans au moins six cas, des véhicules Tesla auraient « continué dans une intersection malgré un feu rouge », provoquant des collisions multiples. L’agence fédérale a également relevé des cas où la voiture, en mode conduite autonome, aurait traversé la ligne médiane pour entrer dans la voie inverse, un comportement explicitement interdit par le code de la route. Ces faits se sont répétés à plusieurs reprises dans certaines zones, notamment à Joppa, dans le Maryland, où un carrefour est devenu un point noir pour le système, relaye le Washington Post.
Selon Electrek, environ 18 plaintes officielles mentionnent une mauvaise détection des signaux lumineux par le FSD. La NHTSA s’interroge désormais sur la réactivité du conducteur dans ces cas, et sur la clarté des alertes transmises par le système avant une manœuvre dangereuse. En effet, le FSD reste classé comme un dispositif d’assistance de niveau 2, imposant une surveillance permanente du conducteur, rappelle AP News. Ce dernier doit garder les mains sur le volant et être prêt à reprendre la main « à tout moment ».
Des Teslas autonomes impliquées dans de multiples accidents
Ce n’est pas la première fois que Tesla fait l’objet d’un examen de la NHTSA. En 2024, une précédente enquête avait déjà porté sur 2,4 millions de véhicules à la suite d’accidents survenus dans des conditions de faible visibilité, rappelle Reuters. Par ailleurs, The Verge a révélé en août 2025 que le constructeur aurait « retardé de plusieurs mois » la transmission de certains rapports d’accident à l’agence, contrevenant à l’obligation de notification sous cinq jours imposée par la réglementation fédérale.
D’autres fonctionnalités du constructeur suscitent l’inquiétude des régulateurs. La fonction “Summon”, permettant de déplacer un véhicule à distance dans un parking, fait actuellement l’objet d’un examen distinct après plusieurs accrochages signalés par des usagers, selon CBS News. Quant au lancement du service de robotaxis Tesla à Austin, il attire lui aussi la surveillance des autorités. Plusieurs vidéos diffusées depuis juin 2025 montrent des véhicules autonomes roulant sur la mauvaise voie ou freinant brusquement.
Ces incidents ont poussé la présidente du National Transportation Safety Board, Jennifer Homendy, à qualifier le nom « Full Self-Driving » de « trompeur et irresponsable », estimant qu’il « donne aux conducteurs un faux sentiment de sécurité », détaille The Guardian.
