La dépendance excessive du conducteur à Autopilot, le logiciel d’aide à la conduite de Tesla, couplée au fait qu’il était distrait, sont « probablement » les causes de l’encastrement, en janvier 2018, d’une voiture du constructeur contre un camion de pompiers à l’arrêt.
« Le NTSB est parvenu à la conclusion que la probable cause de l’accident était l’absence de réaction du conducteur de la Tesla face au camion de pompiers en stationnement sur sa file », écrit dans un rapport publié mercredi le NTSB, l’organisme fédéral américain chargé de la sécurité dans les transports.
Il ajoute que cette inattention est due à « la dépendance excessive au système d’assistance à la conduite avancé de la voiture« .
L’autorité semble toutefois dédouaner Tesla lorsqu’elle insiste sur le fait que l’utilisation d’Autopilot par le conducteur s’est faite « de façon incohérente avec les conseils et les avertissements de Tesla ».
Dans un message diffusé sur son site après de premiers accidents impliquant Autopilot, Tesla demande aux conducteurs de ses voitures de rester attentifs même lorsque ce logiciel est activé.
Le 22 janvier 2018, une berline Tesla Model S s’était encastrée dans un camion de pompiers stationné sur l’Interstate-405 à Culver City en Californie.
Tesla autopilot found partly to blame for crash into fire truck https://t.co/0HJSKBO22J pic.twitter.com/HgqG3PIJOS
— SFGate (@SFGate) 4 septembre 2019
Autopilot était activé au moment de l’accident, affirme le NTSB, précisant que le conducteur a reçu de nombreuses alertes pour remettre ses mains sur le volant.
Le rapport indique que la Tesla suivait un véhicule mais quand ce dernier a changé de file, la Tesla a commencé à accélérer jusqu’à atteindre une vitesse « record » pour cette portion de la route. « Un signal d’avertissement est apparu 49 secondes avant le choc mais le système de freinage automatique ne s’est pas enclenché », a constaté le NTSB. « Les mains du conducteur n’ont pas été détectées sur le volant pendant la séquence et ce dernier (…) n’a pas non plus freiné avant l’impact », dit encore le régulateur.
Ce n’est pas la première fois qu’Autopilot est impliqué dans un accident. Il a notamment été engagé dans les collisions mortelles en 2018 d’une Model 3 en Floride et d’un Model X à Mountain View en Californie. Les enquêtes sont en cours.
Ces deux accidents et un autre impliquant une voiture d’Uber ont relancé les questions sur la fiabilité des logiciels d’aide à la conduite et de façon générale sur les voitures autonomes.
Comment pouvez-vous nous aider à vous tenir informés ?
Epoch Times est un média libre et indépendant, ne recevant aucune aide publique et n’appartenant à aucun parti politique ou groupe financier. Depuis notre création, nous faisons face à des attaques déloyales pour faire taire nos informations portant notamment sur les questions de droits de l'homme en Chine. C'est pourquoi, nous comptons sur votre soutien pour défendre notre journalisme indépendant et pour continuer, grâce à vous, à faire connaître la vérité.