à la suite d’accidents, dont certains mortels, impliquant Autopilot
Tesla fait l’objet d’une enquête criminelle aux États-Unis pour des allégations selon lesquelles les véhicules électriques de l’entreprise peuvent conduire eux-mêmes, ont déclaré trois personnes proches du dossier. Le ministère américain de la Justice a lancé l’année dernière une enquête non divulguée à la suite de plus d’une douzaine d’accidents, dont certains mortels, impliquant le système d’assistance à la conduite de Tesla, Autopilot, qui a été activé lors des accidents, ont déclaré les sources.
Bien que le site Web de Tesla indique qu’Autopilot nécessite une supervision active et n’est pas autonome, il contient également une vidéo qui affirme : « La personne au volant n’est là que pour des raisons légales. Elle ne fait rien. La voiture se conduit toute seule », et Musk a été interviewé à plusieurs reprises depuis le siège du conducteur d’une Tesla sans les mains sur le volant.
On ne sait pas si l’enquête du ministère de la Justice entraînera des poursuites pénales.
Dès 2016, les supports marketing de Tesla vantaient les capacités d’Autopilot. Lors d’une conférence téléphonique cette année-là, Elon Musk, le directeur général du constructeur automobile de la Silicon Valley, l’a décrit comme « probablement meilleur » qu’un conducteur humain.
La semaine dernière, Musk a déclaré lors d’un autre appel que Tesla publierait bientôt une version améliorée du logiciel « Full Self-Driving » permettant aux clients de se rendre « à votre travail, chez votre ami, à l’épicerie sans que vous touchiez le volant ».
Une vidéo actuellement sur le site Web de l’entreprise indique : « La personne qui occupe le siège du conducteur n’est là que pour des raisons légales. Il ne fait rien. La voiture se conduit toute seule. Cependant, la société a également explicitement averti les conducteurs qu’ils doivent garder les mains sur le volant et garder le contrôle de leurs véhicules tout en utilisant Autopilot. La technologie Tesla est conçue pour aider à la direction, au freinage, à la vitesse et aux changements de voie, mais ses caractéristiques « ne rendent pas le véhicule autonome », indique la société sur son site Internet.
De tels avertissements pourraient compliquer toute affaire que le ministère de la Justice pourrait souhaiter intenter, ont indiqué les sources.
Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l’année dernière
Les véhicules Tesla exécutant son logiciel Autopilot ont été impliqués dans 273 accidents signalés au cours de l’année écoulée environ, selon une enquête de la National Highway Traffic Safety Administration (NHTSA), bien plus que ce que l’on savait auparavant. Un rapport qui fournit des preuves concrètes concernant les performances réelles des fonctionnalités futuristes de Tesla.
Les chiffres montrent que les véhicules Tesla représentaient près de 70% des 392 accidents impliquant des systèmes avancés d’assistance à la conduite signalés depuis entre juillet 2021 et juin 2022, et la majorité des décès et blessures graves, dont certaines remontent à plus d’un an. Huit des accidents de Tesla ont eu lieu avant juin 2021, selon les données publiées par la NHTSA.
Auparavant, la NHTSA avait déclaré avoir enquêté sur 42 accidents impliquant potentiellement l’assistance au conducteur, dont 35 incluaient des véhicules Tesla, dans un ensemble de données plus limité qui remontait à 2016.
Sur les six décès répertoriés dans l’ensemble de données, cinq étaient liés à des véhicules Tesla – dont un accident de juillet 2021 impliquant un piéton à Flushing, dans le Queens, et un accident mortel en mars à Castro Valley, en Californie. Certains remontaient à 2019.
Certains experts émettent des réserves quant à la sécurité du mode Full Self-Driving de Tesla
Tesla Autopilot est une suite de systèmes qui permet aux conducteurs de céder le contrôle physique de leurs véhicules électriques, bien qu’ils doivent faire attention à tout moment. Sur son site, Tesla décrit les fonctionnalités de sécurité suivantes :
Freinage d’urgence automatique : détecte les véhicules ou les obstacles que votre véhicule pourrait heurter et freine en conséquence
Avertissement de collision frontale : avertit le conducteur en cas de collision imminente avec des véhicules à l’arrêt ou plus lents
Avertissement de collision latérale : vous avertit en cas de collisions potentielles avec des obstacles situés à côté du véhicule
Limitation de l’accélération en fonction des obstacles : réduit l’accélération lorsqu’un obstacle est détecté devant votre véhicule lorsque vous roulez à vitesse réduite
Surveillance des angles morts : vous avertit lorsqu’un véhicule ou un obstacle est détecté lors d’un changement de voie
Évitement de franchissement de ligne : corrige la trajectoire de votre véhicule pour le maintenir dans sa voie de circulation
Évitement d’urgence de franchissement de ligne : ramène votre véhicule dans sa voie de circulation lorsque la fonctionnalité détecte que votre véhicule quitte sa voie et qu’il existe un risque de collision
Un ensemble étendu de fonctionnalités encore en version bêta, le “Full Self-Driving”, ajoute la possibilité de manœuvrer dans les rues urbaines et résidentielles, de s’arrêter aux panneaux d’arrêt et aux feux de circulation, et de faire des virages tout en naviguant d’un point à un autre.
Mais certains experts en sécurité des transports ont exprimé des inquiétudes quant à la sécurité de la technologie, car elle est testée et formée sur les routes publiques avec d’autres conducteurs. Les autorités fédérales ont ciblé Tesla ces derniers mois avec un nombre croissant d’enquêtes, de rappels et même d’avertissements publics dirigés contre l’entreprise.
Le nouvel ensemble de données découle d’une ordonnance fédérale de l’été dernier obligeant les constructeurs automobiles à signaler les accidents impliquant l’assistance à la conduite afin d’évaluer si la technologie présentait des risques pour la sécurité. Il a été constaté que les véhicules de Tesla éteignaient le système avancé d’assistance à la conduite, Autopilot, environ une seconde avant l’impact, selon les régulateurs.
L’ordonnance de la NHTSA obligeait les fabricants à divulguer les plantages où le logiciel était utilisé dans les 30 secondes suivant le crash, en partie pour atténuer la crainte que les fabricants cachent les plantages en affirmant que le logiciel n’était pas utilisé au moment de l’impact.
« Ces technologies sont très prometteuses pour améliorer la sécurité, mais nous devons comprendre comment ces véhicules fonctionnent dans des situations réelles », a déclaré l’administrateur de la NHTSA, Steven Cliff, lors d’un appel aux médias concernant l’ensemble complet de données des fabricants.
Tesla a déclaré qu’Autopilot est plus sûr que la conduite normale lorsque les données d’accident sont comparées. La société a également souligné le grand nombre de décès par accident de la circulation sur les routes américaines chaque année, estimé par la NHTSA à 42 915 en 2021, saluant la promesse de technologies comme Autopilot à « réduire la fréquence et la gravité des accidents de la circulation et sauver des milliers de vies chaque année ».
Les données opposant la conduite normale à Autopilot ne sont pas directement comparables, car Autopilot fonctionne en grande partie sur les autoroutes. Le PDG de Tesla, Elon Musk, avait cependant décrit Autopilot comme « sans équivoque plus sûr ».
Le ministère de la Justice s’en mêle et lance une enquête
Musk a déclaré dans une interview avec Automotive News en 2020 que les problèmes d’Autopilot proviennent de clients utilisant le système de manière contraire aux instructions de Tesla.
Les régulateurs de sécurité fédéraux et californiens examinent déjà si les allégations concernant les capacités d’Autopilot et la conception du système confèrent aux clients un faux sentiment de sécurité, les incitant à traiter les Teslas comme de véritables voitures sans conducteur et à devenir complaisants au volant avec des conséquences potentiellement mortelles.
L’enquête du ministère de la Justice représente potentiellement un niveau d’examen plus sérieux en raison de la possibilité d’accusations pénales contre l’entreprise ou des dirigeants individuels, ont déclaré les personnes proches de l’enquête.
Dans le cadre de la dernière enquête, les procureurs du ministère de la Justice de Washington et de San Francisco examinent si Tesla a trompé les consommateurs, les investisseurs et les régulateurs en faisant des déclarations non étayées sur les capacités de sa technologie d’assistance à la conduite, ont indiqué les sources. Les responsables menant leur enquête pourraient finalement engager des poursuites pénales, demander des sanctions civiles ou clore l’enquête sans prendre aucune mesure, ont-ils déclaré.
L’enquête sur Autopilot du ministère de la Justice est loin de recommander une action, en partie parce qu’elle est en concurrence avec deux autres enquêtes du DOJ impliquant Tesla, a déclaré l’une des sources. Les enquêteurs ont encore beaucoup de travail à faire et aucune décision sur les charges n’est imminente, a indiqué cette source.
Le ministère de la Justice pourrait également être confronté à des difficultés dans la constitution de son dossier, ont déclaré les sources, en raison des avertissements de Tesla concernant une dépendance excessive à l’Autopilot. Par exemple, après avoir dit à l’appel des investisseurs la semaine dernière que Tesla voyagerait bientôt sans que les clients touchent les commandes, Musk a ajouté que les véhicules avaient encore besoin de quelqu’un au volant : « nous ne disons pas qu’ils sont tout à fait prêts à n’avoir personne au volant », a déclaré Elon Musk.
Le site Web de Tesla prévient :
Les fonctionnalités Autopilot : Autopilot est amélioré et sa capacité de conduite entièrement autonome sont conçues pour être utilisées par un conducteur vigilant dont les mains sont sur le volant et qui est prêt à reprendre le contrôle de son véhicule à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, elles ne rendent pas le véhicule autonome actuellement.
Barbara McQuade, une ancienne avocate américaine à Detroit qui a poursuivi des entreprises automobiles et des employés dans des affaires de fraude et n’est pas impliquée dans l’enquête actuelle, a déclaré que les enquêteurs auraient probablement besoin de découvrir des preuves telles que des e-mails ou d’autres communications internes montrant que Tesla et Musk ont fait des déclarations trompeuses sur les capacités d’Autopilot à dessein.
Elon Musk ou la multiplication des enquêtes et des problèmes juridiques
L’enquête criminelle sur Autopilot s’ajoute aux autres enquêtes et problèmes juridiques impliquant Elon Musk, qui s’est retrouvé enfermé dans une bataille judiciaire plus tôt cette année après avoir abandonné une prise de contrôle à 44 milliards de dollars de Twitter, pour être revenu sur ses propos et proclamer qu’il était enthousiaste à l’idée d’en faire l’acquisition.
En août 2021, la National Highway Traffic Safety Administration des États-Unis a ouvert une enquête sur une série d’accidents, dont l’un mortel, impliquant des Teslas (avec l’Autopilot activé) qui ont percuté des véhicules d’urgence en stationnement.
En juin, les responsables de la NHTSA ont intensifié leur enquête, qui couvre 830 000 Teslas avec l’Autopilot activé, identifiant 16 accidents impliquant les voitures électriques de la société et les véhicules stationnaires de premiers secours et d’entretien des routes.
En juillet de cette année, le California Department of Motor Vehicles a accusé Tesla d’avoir faussement annoncé sa capacité d’Autopilot comme étant de l’autoconduite qui fournissait un contrôle autonome du véhicule. Tesla a déposé des documents auprès de l’agence demandant une audience sur les allégations et a indiqué qu’elle avait l’intention de se défendre contre elles.
Les procureurs de Washington DC et de San Francisco cherchent à savoir si Tesla a trompé les consommateurs, les investisseurs et les régulateurs avec de fausses publicités sur sa technologie automobile contrôlée par ordinateur. Il y a une crainte que les acheteurs et les actionnaires entendent des noms de produits comme Full Self-Driving et Autopilot, et, étant donné que Musk vante leurs capacités, qu’ils croient à tort que les voitures peuvent vraiment conduire elles-mêmes totalement et en toute sécurité.
Si les responsables décident de poursuivre l’entreprise, elle devra peut-être verser des dommages-intérêts, faire face à des sanctions, ou les deux, si elle est reconnue coupable ou parvient à un accord. L’enquête a été lancée l’année dernière, et il n’est pas clair combien de progrès ont été réalisés pour parvenir à une décision.
Sources : enquête du DoJ, Autopilot Tesla, developpez.com