La Tesla Model X en pilote automatique a tué un Conducteur

  Tesla prend les relations publiques très au sérieux après qu’un de ses véhicules en mode autonome a récemment tué un passager. L’accident s’est produit à 9 h 27...
 

Tesla prend les relations publiques très au sérieux après qu’un de ses véhicules en mode autonome a récemment tué un passager.

L’accident s’est produit à 9 h 27 sur la route 101 près de Mountain View, en Californie. Walter Huang était dans le siège du conducteur du modèle X, qui était en mode autonome. La voiture a heurté un séparateur d’autoroute en béton, marqué de chevrons noirs et jaunes, à pleine puissance. Huang n’a rien fait. Le SUV s’est froissé comme une boîte de conserve, et Huang n’a pas survécu.

L’enquête sur l’accident mortel du #Tesla s’est poursuivie aujourd’hui, le #CHP et le #NTSB enquêtant sur le véhicule électrique brûlé.

D’autres informations ont été difficiles à obtenir en raison de la gravité des dommages. Jusqu’à présent, nous ne savons pas si sa mort est le résultat d’une négligence, d’une sieste fatale ou simplement d’une distraction. Mais une chose est claire : l’accident prouve que les repères audio et visuels sur le tableau de bord pourraient après tout être insuffisants pour prévenir un accident.

Huang n’a pas été le premier à mourir dans une Tesla avec le pilote automatique actif. En 2016, Joshua Brown a écrasé son modèle S dans un camion, marquant une collision mortelle alors que le pilote automatique était engagé.

Le moment de cet accident n’est pas exactement idéal (du point de vue de Tesla). Uber constate déjà les dégâts après que sa voiture a tué un piéton en Arizona le 19 mars, quatre jours avant la collision mortelle de Huang.

 

Il est intéressant de noter que les officiels ne sont pas très satisfaits de l’offensive RP de Tesla. Dimanche, un porte-parole du National Transportation Safety Board (NTSB) des États-Unis a déclaré au Washington Post :

Pour le moment, le NTSB a besoin de l’aide de Tesla pour décoder les données enregistrées par le véhicule. Dans chacune de nos enquêtes impliquant un véhicule Tesla, Tesla s’est montré extrêmement coopératif pour aider avec les données du véhicule. Cependant, le NTSB n’est pas satisfait de la publication d’informations d’investigation par Tesla.

Vraisemblablement, les enquêteurs ne sont pas heureux parce qu’ils aimeraient obtenir autant d’informations que possible, puis publier un rapport.

Mais Tesla a peut-être sauté sur l’arme. Le non-respect des processus d’enquête et des échéances du NTSB pourrait entraîner l’arrêt des progrès technologiques (et des améliorations en matière de sécurité).

Après l’accident de l’Uber, l’entreprise a été interdite d’autres essais en Arizona (bien que d’autres entreprises aient été autorisées à continuer). De nombreuses personnes craignaient que l’accident n’ébranle la confiance du public dans les véhicules autonomes, et cela ne s’est pas encore produit, du moins pas encore.

Mais si les accidents continuent, cela pourrait changer. Le marché des voitures autonomes pourrait s’assécher avant que la technologie ne devienne suffisamment fiable pour les généraliser.

L’Autopilote de Tesla est de niveau 2 d’autonomie, tandis que l’auto-pilote d’Uber est de niveau 4. Donc, la technologie n’est même pas vraiment la même chose. Pourtant, un tournant dans la marée de l’opinion publique pourrait balayer les deux avec elle.

Les véhicules autonomes ne sont pas les meilleurs pour partager la route imprévisible avec des humains imprécis. Oui, une fois que les véhicules entièrement autonomes seront déployés dans tout le pays et représenteront 100 % des véhicules sur la route, les routes américaines deviendront inévitablement plus sûres.

Mais nous n’en sommes pas encore là. Si des accidents de ce genre continuent de se produire et que le public perd confiance, nous ne le serons peut-être jamais.

SOURCE

Aucun commentaire

Laisser une réponse

*

*

À Découvrir Aussi