L’Autopilot est une réalité, mais les problèmes qui en découlent restent nombreux, et ce, même si Elon Musk essaye de nous faire croire du contraire. Ces images enregistrées par une caméra de surveillance le prouvent, bien malheureusement…
Elon Musk a confiance en son Autopilot, mais…
Le 24 novembre dernier, Elon Musk a annoncé la disponibilité de l’Autopilot pour les Tesla Model S sur les réseaux sociaux. Problème, les caméras de San Francisco ont capturé quelques heures après cette annonce, un accident spectaculaire impliquant justement une Model S. Sur les images, on peut voir la voiture électrique changer de voie et s’arrêter brusquement, sans raison apparente, au milieu de l’autoroute.
Petit bonus, le rapport de police précise que le véhicule - une Tesla Model S - avait la fonction « conduite autonome complète » activée. Un évènement qu’Elon Musk ne pouvait pas prédire et qui s’est donc déroulé quelques heures après l’annonce des fonctionnalités d’Autopilot améliorées le 24 novembre dernier - jour de Thanksgiving aux États-Unis.
Tesla : un nouvel accident qui pose plusieurs questions
Comme nous vous l’expliquions plus haut, le véhicule a brusquement changé de voie avant de freiner tout aussi brutalement, provoquant ainsi un accident en accordéon dans lequel huit véhicules sont entrés en collision. Les caméras de sécurité, qui ont filmé l'accident de manière très claire, montrent comment la voiture indique sa manœuvre avec son clignotant, et comme elle s'arrête brusquement sans se mettre sur le côté.
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
— Ken Klippenstein (@kenklippenstein) January 10, 2023
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
En tout, l'accident a fait neuf blessés, dont un enfant de deux ans, et a bloqué la circulation sur le pont de la baie de San Francisco pendant plus de deux heures. L'accident s'est produit seulement quelques heures après l’annonce de la version bêta de la fonction de conduite autonome par le PDG du constructeur automobile américain. De plus et selon les informations de The Intercept, les véhicules Tesla sont à l'origine d'environ 70 % des accidents de la circulation impliquant des systèmes avancés d'aide à la conduite (ADAS). Si on voulait se faire l’avocat du diable, nous vous dirions que les voitures électriques disposant d’un système de conduite autonome avancé (hors Tesla) ne sont pas encore si répandues que ça.
Ce n'est pas la première fois que le frein fantôme de Tesla cause des problèmes. Pas plus tard qu'en novembre, le freinage brutal d'un modèle Y avait provoqué un accident mortel dans lequel deux personnes ont été tuées et trois autres ont été blessées. Les responsables de la NHTSA (National Highway Traffic Safety Administration) affirment avoir reçu plus de 700 rapports concernant ce « freinage fantôme », dont la cause n'est pas encore connue. Tous ces problèmes nous poussent à nous poser plusieurs questions. La plus importante étant certainement : les voitures autonomes sont-elles capables d’être réellement autonomes dans un parc automobile où la majorité des véhicules ne l’est pas ?