Teslas avec pilote automatique un pas de plus vers le rappel après les épaves

Teslas avec pilote automatique un pas de plus vers le rappel après les épaves

Teslas avec des systèmes de conduite partiellement automatisés sont sur le point d’être rappelés

Teslas avec des systèmes de conduite partiellement automatisés sont sur le point d’être rappelés

Teslas avec des systèmes de conduite partiellement automatisés sont sur le point d’être rappelés après que les États-Unis ont intensifié leur enquête sur une série de collisions avec des véhicules d’urgence en stationnement ou des camions avec des panneaux d’avertissement.

(Inscrivez-vous à notre newsletter sur la technologie, Today’s Cache, pour obtenir des informations sur les thèmes émergents à l’intersection de la technologie, des affaires et de la politique. Cliquez ici pour vous abonner gratuitement.)

La National Highway Traffic Safety Administration a déclaré jeudi qu’elle mettait à niveau la sonde Tesla vers une analyse technique, un autre signe d’un contrôle accru du constructeur de véhicules électriques et des systèmes automatisés qui effectuent au moins certaines tâches de conduite.

Des documents publiés jeudi par l’agence soulèvent de sérieux problèmes concernant le système de pilotage automatique de Tesla. L’agence a constaté qu’il est utilisé dans des zones où ses capacités sont limitées et que de nombreux conducteurs ne prennent aucune mesure pour éviter les accidents malgré les avertissements du véhicule.

La sonde couvre désormais 830 000 véhicules, presque tout ce que le constructeur automobile d’Austin, au Texas, a vendu aux États-Unis depuis le début de l’année modèle 2014.

La NHTSA a signalé qu’elle avait trouvé 16 accidents dans des véhicules d’urgence et des camions avec des panneaux d’avertissement, causant 15 blessés et un mort.

Les enquêteurs évalueront des données supplémentaires, les performances du véhicule et “exploreront dans quelle mesure le pilote automatique et les systèmes Tesla associés peuvent exacerber les facteurs humains ou les risques de sécurité comportementale, compromettant l’efficacité de la supervision du conducteur”, a déclaré l’agence.

Un message a été laissé jeudi sollicitant les commentaires de Tesla.

Une analyse technique est l’étape finale d’une enquête et, dans la plupart des cas, la NHTSA décide dans un délai d’un an s’il doit y avoir un rappel ou si l’enquête doit être fermée.

Dans la majorité des 16 accidents, les Teslas ont émis des alertes de collision aux conducteurs juste avant l’impact. Le freinage d’urgence automatique est intervenu pour au moins ralentir les voitures dans environ la moitié des cas. En moyenne, le pilote automatique a abandonné le contrôle du Teslas moins d’une seconde avant le crash, a déclaré la NHTSA dans des documents détaillant la sonde.

La NHTSA a également déclaré qu’elle examinait des accidents impliquant des schémas similaires qui n’incluaient pas de véhicules d’urgence ou de camions avec des panneaux d’avertissement.

L’agence a constaté que dans de nombreux cas, les conducteurs avaient les mains sur le volant comme l’exige Tesla, mais n’ont pas pris de mesures pour éviter un accident. Cela suggère que les conducteurs se conforment au système de surveillance de Tesla, mais cela ne garantit pas qu’ils y prêtent attention.

Dans les accidents où la vidéo est disponible, les conducteurs devraient avoir vu les véhicules des premiers intervenants en moyenne huit secondes avant l’impact, a écrit l’agence.

L’agence devra décider s’il y a un défaut de sécurité avec le pilote automatique avant de poursuivre un rappel.

Les enquêteurs ont également écrit que l’utilisation ou la mauvaise utilisation par un conducteur du système de surveillance du conducteur “ou la conduite d’un véhicule de manière involontaire n’empêche pas nécessairement un défaut du système”.

Le document de l’agence indique que la méthode de Tesla pour s’assurer que les conducteurs font attention n’est pas assez bonne, qu’elle est défectueuse et doit être rappelée, a déclaré Bryant Walker Smith, professeur de droit à l’Université de Caroline du Sud qui étudie les véhicules automatisés.

“Il est vraiment facile d’avoir une main sur le volant et d’être complètement désengagé de la conduite”, a-t-il déclaré. La surveillance de la position des mains d’un conducteur n’est pas efficace car elle ne mesure qu’une position physique. “Il ne s’agit pas de leur capacité mentale, de leur engagement ou de leur capacité à réagir.”

Des systèmes similaires d’autres sociétés telles que Super Cruise de General Motors utilisent des caméras infrarouges pour surveiller les yeux ou le visage d’un conducteur afin de s’assurer qu’il regarde vers l’avant. Mais même ces systèmes peuvent encore permettre à un conducteur de se déconnecter, a déclaré Walker Smith.

“Cela est confirmé étude après étude”, a-t-il déclaré. “C’est un fait établi que les gens peuvent avoir l’air engagés et ne pas être engagés. Vous pouvez avoir la main sur le volant et vous pouvez être impatient et ne pas avoir la conscience de la situation qui est requise.

Au total, l’agence a examiné 191 accidents mais en a supprimé 85 parce que d’autres conducteurs étaient impliqués ou qu’il n’y avait pas suffisamment d’informations pour faire une évaluation définitive. Sur les 106 autres, la principale cause d’environ un quart des accidents semble être l’utilisation du pilote automatique dans des zones où il a des limites ou dans des conditions qui peuvent interférer avec son fonctionnement.

“Par exemple, un fonctionnement sur des routes autres que des autoroutes à accès limité, ou un fonctionnement dans des environnements à faible traction ou visibilité tels que la pluie, la neige ou la glace”, a écrit l’agence.

D’autres constructeurs automobiles limitent l’utilisation de leurs systèmes aux autoroutes divisées à accès limité.

Le National Transportation Safety Board, qui a également enquêté sur certains des accidents de Tesla datant de 2016, a recommandé que la NHTSA et Tesla limitent l’utilisation du pilote automatique aux zones où il peut fonctionner en toute sécurité. Le NTSB a également recommandé que la NHTSA exige que Tesla dispose d’un meilleur système pour s’assurer que les conducteurs sont attentifs. La NHTSA n’a pas encore donné suite aux recommandations. Le NTSB ne peut faire des recommandations qu’aux autres agences fédérales.

Dans un communiqué, la NHTSA a déclaré qu’il n’y avait pas de véhicules disponibles à l’achat aujourd’hui qui peuvent conduire eux-mêmes. “Chaque véhicule disponible exige que le conducteur humain ait le contrôle à tout moment, et toutes les lois de l’État tiennent le conducteur humain responsable du fonctionnement de leurs véhicules”, a déclaré l’agence.

Les systèmes d’assistance à la conduite peuvent aider à éviter les accidents mais doivent être utilisés correctement et de manière responsable, a déclaré l’agence.

Tesla a effectué une mise à jour en ligne du logiciel Autopilot l’automne dernier pour améliorer la détection par caméra des feux des véhicules d’urgence dans des conditions de faible luminosité. La NHTSA a demandé pourquoi l’entreprise n’avait pas procédé à un rappel.

La NHTSA a commencé son enquête en août de l’année dernière après une série d’accidents depuis 2018 dans lesquels Teslas utilisant les systèmes de pilote automatique ou de régulateur de vitesse averti du trafic de la société a heurté des véhicules sur des scènes où les premiers intervenants ont utilisé des feux clignotants, des fusées éclairantes, un panneau de flèche éclairé ou des avertissements de cônes de dangers.

Lire aussi  Les manifestations iraniennes défient le gouvernement alors qu'Elon Musk offre un accès à Starlink

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick