Un incident survenu en Chine, filmé en direct, remet en question les assurances concernant l’autonomie des véhicules Tesla. Derrière un nom prestigieux et un marketing attrayant, la réalité du Full Self-Driving (FSD) semble, pour l’instant, bien éloignée des promesses.
La confusion s’intensifie autour de la distinction entre assistance et conduite autonome chez Tesla. La réglementation internationale définit clairement les systèmes comme l’Autopilot et le FSD comme des aides à la conduite de niveau 2. Cela signifie concrètement que la voiture est capable de gérer la direction, l’accélération et le freinage, mais uniquement sous la surveillance permanente du conducteur, qui doit rester vigilant et prêt à reprendre le contrôle à tout moment. La responsabilité incombe entièrement au conducteur.
Cependant, la pratique révèle souvent une disparité avec cette définition stricte. Plus tôt cette année, Tesla a introduit son système Full Self-Driving en Chine, après avoir dû changer son nom à la demande des autorités locales, considérant que l’appellation initiale était trompeuse. Comme aux États-Unis, le FSD est officiellement reconnu comme un simple assistant. Pourtant, de nombreux utilisateurs chinois ont rapidement cherché à tester ses capacités, partageant leurs trajets en direct sur Douyin, le pendant local de TikTok.
Un de ces streams a pris une tournure malencontreuse. À bord de sa Model 3, un utilisateur a vu son véhicule s’engager sur la voie opposée et entrer en collision frontale avec un autre véhicule. Fort heureusement, cet accident n’a pas entraîné de blessures graves, mais il relance indéniablement le débat sur la sécurité de ces technologies.
Un accident sérieux avec le FSD de Tesla a eu lieu en Chine pendant un livestream sur Douyin. Le véhicule fonctionnait sous FSD v13.2.9 et a répété des incursions dans la voie des véhicules venant en sens inverse sur une étroite route de montagne, malgré la détection des lignes jaunes doubles, avant de percuter un autre véhicule.@Tesla @elonmusk pic.twitter.com/OSNOJhI8Hd
— GEEKJUDE_极客小猪 (@GeekjudeH) 22 décembre 2025
Un discours parfois flou
Les séquences vidéo montrent indéniablement que le Full Self-Driving était actif lors de l’incident et qu’il a initié la manœuvre fatale. C’est un rappel sévère, mais nécessaire : les systèmes Tesla ne bénéficient pas d’une autonomie réelle.
Bien que cela soit précisé dans les termes d’utilisation, le marketing de Tesla entretient une certaine confusion. Le terme « Full Self-Driving » implique un niveau d’autonomie qui n’est pas atteint. En outre, Elon Musk a récemment suggéré que les conducteurs pouvaient se servir de leur téléphone pendant que le FSD était activé.
Cela s’avère d’autant plus problématique, notamment suite à la reconnaissance de l’Autopilot comme responsable d’un accident mortel l’été dernier. Pendant ce temps, la marque continue de développer le Full Self-Driving en Europe, où les régulateurs restent beaucoup plus prudents face à ces technologies émergentes.
- Le Full Self-Driving de Tesla, lancé récemment en Chine, a causé un accident frontal pendant un trajet diffusé en direct.
- L’accident démontre que le système était activé au moment des faits.
- Entre promesses marketing vagues et incidents récurrents, Tesla fait face à des difficultés avec son FSD.