Tesla rattrapé par ses promesses de sécurité et d’autonomie
-
Malgré plusieurs accidents – certains mortels –, Tesla n’aurait pas modifié son Autopilot qui n’avait pourtant pas bien analysé la situation. Un élément qui vient s’ajouter à la série de décisions douteuses relatives à l’autonomie et la sécurité des véhicules révélées dans les deux derniers mois. Sécurité et autonomie sont pourtant au cœur de la stratégie marketing du constructeur.
Les deux accidents mortels se sont passés de manière similaire. À un croisement de trafic, le système Autopilot de Tesla n’a pas pris en compte les voitures et camions arrivant en perpendiculaire. Résultat, en 2016 et en 2019, les conducteurs Joshua Brown et Jeremy Banner sont morts d’avoir embouti les camions à un croisement. Or, depuis, Tesla n’a jamais modifié le fonctionnement de son système de conduite automatique.
C’est du moins ce qu’affirment plusieurs ingénieurs du constructeur de véhicule électrique. Leurs témoignages ont été rendus publics alors que la responsabilité de Tesla dans la mort de M. Banner doit être jugée au tribunal en octobre prochain. La veuve du conducteur a amendé sa plainte la semaine passée pour demander des dommages et intérêts, estimant que le système aurait dû être corrigé dès le décès accidentel de 2016.
Ce n’était pourtant pas la conclusion du NHTSA (la National Highway Traffic Safety Administration, l’agence fédérale américaine en charge de la sécurité routière) qui a même vanté un temps le pilote automatique. Quelques mois plus tard, le Conseil national de la sécurité des transports américains (NTSB, une agence indépendante du gouvernement américain) présentait à son tour ses conclusions et dénonçait pour sa part le système automatisé. Le Conseil émettait une série de recommandations, notamment à destination du NHTSA et de Tesla.
On rappellera qu’en septembre 2016 (quelques mois après l’accident mortel), Tesla déployait son Autopilot 8.0. Elon Musk expliquait alors qu’il pensait « qu’il était très probable que le pilote automatique aurait vu un gros objet de métal et aurait freiné ». L’accident mortel de 2019 semble prouver le contraire.
- | Accident mortel : Tesla hors de cause selon la NHTSA, qui vante le pilote automatique
- | Accident mortel : le NTSB pointe du doigt le pilote automatique de Tesla
L’affaire vient s’ajouter à une série de révélations qui mettent Tesla et son directeur général Elon Musk sous pression : la justice et les régulateurs, de même qu’un nombre croissant de clients et d’investisseurs s’interrogent sur la sécurité et l’autonomie réelle des véhicules.
« La voiture la plus sûre jamais construite »
Car chez Tesla, la sécurité est un argument de vente important. À plusieurs reprises, depuis dix ans, Elon Musk et Tesla ont déclaré que les véhicules sortant de leurs usines étaient les « plus sûrs jamais construits », impliquant par là qu’ils étaient même plus sécurisés que des voitures conduites par des humains.
Ainsi le Model X était-il décrit en 2015 comme le « SUV le plus sûr », l’entrepreneur milliardaire expliquant à l’époque que « grâce à la conception et à l’architecture fondamentale de la voiture, nous sommes parvenus à une probabilité de blessure extrêmement faible en cas de collision à grande vitesse ».
Rebelote en 2018, où l’entreprise détaillait comment elle construisait « l’usine de voitures la plus sûre du monde ». Dans un autre article de blog, plus tard dans l’année, Tesla annonçait avoir « construit la Model 3 pour être la voiture la plus sûre jamais construite ». Plus loin, l’entreprise écrivait même « les tests de la NHTSA montrent que la Model 3 présente la probabilité la plus basse de blessures de toutes les voitures jamais testées par l’agence ».
Un an plus tard, pourtant, la publication des échanges entre la NHTSA et Tesla entre 2018 et 2019 révélait que l’agence avait envoyé au constructeur une lettre le mettant en demeure de cesser de promouvoir ainsi ses véhicules. Le responsable juridique de la NHTSA pointait en particulier l’usage récurrent d’expressions comme « la plus sûre », « la plus sécurisée », voire des voitures qualifiées de « parfaites », susceptibles de créer « de la confusion chez les consommateurs et de donner à Tesla un avantage commercial déloyal ».
On retrouve ces termes jusque dans des communications de 2021 ou de 2022.
On notera que le discours de la NHTSA n’a pas toujours été le même. En 2017, après les conclusions du premier accident mortel, le régulateur affirmait que « les données montraient que le taux d’accident des véhicules Tesla a chuté de près de 40 % après installation d’Autosteer » pour maintenir la voiture dans sa voie. En juillet 2016, Mark R. Rosekind – administrateur de la NHTSA – expliquait qu’il fallait « être prêts à tout pour ce qui permet de sauver la vie des gens ». On « ne peut pas attendre que ce soit parfait », ajoutait-il.
Un marketing douteux
L’autre élément de discours sur lequel Tesla s’appuie lourdement pour promouvoir ses véhicules est celui de son autonomie – un facteur important dans la décision d’achat. Sauf que depuis le début de l’année 2023, les indices s’accumulent, qui mettent en doute le récit de la société.
En janvier 2023, celle-ci était condamnée en Corée du Sud pour publicité mensongère : la Fair Trade Commission coréenne avait notamment trouvé l’entreprise coupable d’exagérer la distance parcourable et la vitesse de rechargement des batteries. Elle lui reprochait aussi son manque de transparence.
En juillet, l’agence Reuters a remis de l’eau au moulin avec une enquête sur divers comportements problématiques de l’entreprise. Le média a notamment démontré la propension du constructeur à exagérer l’autonomie de ses batteries affichée sur le tableau de bord. Selon les sources de Reuters, c’est Elon Musk lui-même qui avait appelé à présenter une autonomie plus longue que dans la réalité, il y a une dizaine d’années.
Le but étant d’afficher une autonomie élevée lorsque la batterie est chargée (rassurant pour les clients) puis de fortement réduire l’autonomie au fil des kilomètres, avec une estimation à peu près fiable en dessous de 50 % de charge. La voiture ne tenait pas non plus compte des conditions météorologiques, quand bien même le froid en réduit l’autonomie, comme pour toutes les voitures électriques.
Si la pratique est fréquente dans l’industrie (selon une étude menée par SAE International sur 21 marques de voitures électriques, l’autonomie moyenne des engins était 12,5 % plus basse qu’annoncée en cas de conduite sur autoroute), elle se double ici d’un travail actif à refuser d’assumer le problème.
À l’été 2022, en effet, submergé de plaintes de clients persuadés que leurs voitures étaient défectueuses – alors que c’était le propre marketing de l’entreprise qui avait promis plus que ce qu’elle était réellement capable de fournir en termes d’autonomie –, Tesla a créé une « équipe de diversion ». Sa tâche : supprimer autant de rendez-vous pris par des clients pour régler ce supposé défaut d’autonomie que possible.
Nombreux rapports d’accidents
En parallèle, de nombreux travaux ont permis d’en savoir plus sur le nombre réel d’accidents impliquant des véhicules Tesla, et notamment son mode Autopilot. La fonctionnalité porte d’ailleurs assez mal son nom : l’autorité fédérale allemande du transport routier (Kraftfahrt-Bundesamt, KBA) a par exemple demandé à Tesla de le modifier « afin d’éviter les malentendus et de fausses attentes des clients ». Le régulateur présentait l’Autopilot de Tesla comme une « assistance au conducteur » et « non à un véhicule hautement automatisé qui peut être utilisé sans une attention constante du conducteur ».
En mai, une fuite de 100 Go de documents internes à l’entreprise auprès du média allemand Handelsblatt a permis de recenser un nombre jusque-là inconnu de plaintes. Celles-ci signalaient en majorité des véhicules accélérant seuls – après enquête, le NHTSA n’avait rien trouver à redire et pointait une « mauvaise utilisation de la pédale » –, des freinages d’urgences (aussi qualifiés de freinages fantômes) voire consistaient en des rapports d’accidents.
Au total, Handelsblatt répertoriait 3 000 incidents, dont 1 000 liés à l’Autopilot, sur une période courant de 2015 à début 2022. La plupart venaient de clients américains, mais aussi d’Europe et d’Asie.
Un mois plus tard, le Washington Post dénombrait 736 accidents impliquant le mode Autopilot de Tesla sur le seul sol américain depuis 2019. Le média américain rapportait par ailleurs une hausse nette du nombre d’accidents, avec 17 décès, dont 11 ont eu lieu depuis mai 2022, et 5 blessures graves. Quatre incidents mortels ont impliqué un deux roues, un autre un véhicule d’urgence. Plusieurs accidents ont touché des mineurs – un adolescent qui sortait de son bus scolaire, par exemple, ou un enfant de deux ans pris dans un carambolage après un freinage fantôme.
Selon différents experts interrogés par le quotidien, certaines des décisions de Musk ont contribué à la hausse des incidents, à commencer par l’extension de la disponibilité des fonctionnalités diverses et par la fin des capteurs radars dont étaient équipés les véhicules. Le dirigeant était passé outre l’avis de plusieurs de ses ingénieurs, qui l’avaient prévenu des risques qu’impliquait la suppression des radars, remplacés par l’approche « Tesla Vision », qui ne repose que sur des caméras.
Le Full Self-Driving, derrière un surplus d’accident ?
Celui-ci a fréquemment défendu sa politique de promotion de la conduite automatique. Ainsi déclarait-il en 2022 : « à partir du moment où vous pensez que l’ajout d’autonomie réduit les blessures et les décès, je pense que vous avez l’obligation morale de le déployer, même si vous allez être poursuivi en justice et blâmé par beaucoup de gens ».
Si le nombre d’accidents impliquant des Tesla est minime rapporté au total des accidents routiers aux États-Unis, l’ancienne conseillère en sécurité de la NHTSA Missy Cummings s’inquiète auprès du Washington Post de l’augmentation du nombre d’accidents impliquant l’Autopilot de ces voitures, en particulier du nombre de blessures et de décès parmi le nombre total d’incidents.
Une des hypothèses que l’experte formule est que cette hausse soit due au déploiement du Full Self-Driving (FSD), la « conduite autonome intégrale », au cours des 18 derniers mois, ce qui la fait arriver dans les rues résidentielles et urbaines. Selon le site Teslascope, le mode FSD serait arrivé en mode beta en Europe en mai dernier, en Allemagne, en Australie et au Danemark. Il faut également rappeler que certains conducteurs ont parfois trop tendance à faire confiance à leur voiture, alors qu’ils sont censés être prêt à reprendre le volant à tout moment. Les accidents de 2016 et 2019 en sont des exemples.
Outre ces éléments relatifs à la sécurité et l’efficacité matérielle de ses voitures, Tesla s’est par ailleurs retrouvé visé en avril par une plainte relative à la sécurité des données personnelles de ses clients.
Un recours collectif a en effet été déposé contre le constructeur après que Reuters a rapporté l’habitude prise par des salariés de l’entreprise de se partager des images récupérées via les caméras embarquées dans les véhicules. Parmi les images consultées, des vidéos de chiens, de panneaux de signalisation improbable, mais aussi des accidents, des scènes d’énervement et un cas montrant un homme nu s’approcher de sa voiture.
Source : nextinpact.com
-
-
Tesla Autopilot n’est pas responsable de l’accident mortel de 2019, selon le jury
Il s’agit de la deuxième grande victoire du jury d’Autopilot en Californie cette année.
La fonction controversée d’aide à la conduite de Tesla, Autopilot, a reçu un autre laissez-passer. Mardi, un jury californien a conclu qu’Autopilot n’était pas responsable d’un accident survenu en 2019 dans le comté de Riverside, qui a tué le conducteur et laissé sa femme et son fils grièvement blessés. C’est la deuxième fois cette année qu’un jury conclut qu’Autopilot n’est pas responsable d’un accident grave.
L’affaire a été déposée par les deux survivants de l’accident de Riverside et alléguait qu’un dysfonctionnement du pilote automatique avait amené la Tesla Model 3 de Micah Lee à quitter une autoroute à 65 mph (105 km/h) avant de heurter un arbre et de prendre feu. Lee est mort dans l’accident et sa femme et son fils alors âgé de 8 ans ont été grièvement blessés ; en conséquence, les plaignants ont demandé 400 millions de dollars plus des dommages-intérêts punitifs.
Mais Tesla a nié que le pilote automatique était défectueux et a affirmé que Lee avait bu de l’alcool avant l’accident. Neuf membres du jury ont donné raison à Tesla après quatre jours de délibérations.
En avril, un jury de Los Angeles a conclu qu’Autopilot n’était pas responsable du fait que la Model S de Justine Hsu avait quitté la route à grande vitesse en 2019, avant de heurter le terre-plein central et de se blesser au visage.
Mais le constructeur automobile doit toujours faire face à une poursuite pour mort injustifiée de la part des proches de l’ingénieur Apple Walter Huang, décédé en 2018 lorsque sa Tesla Model X a fait une embardée dans un terre-plein central, le tuant. Les aides à la conduite de Tesla font également l’objet d’ un recours collectif alléguant que Tesla a surestimé leurs capacités, ainsi que de plusieurs enquêtes menées par la National Highway Traffic Safety Administration, ainsi que d’une enquête du ministère de la Justice .
Source: https://arstechnica.com/cars/2023/10/tesla-autopilot-not-responsible-for-2019-fatal-crash-jury-says/
-
Elon Musk et Tesla ont ignoré les défauts fatals d’Autopilot, selon le juge
Tesla pourrait devoir des dommages-intérêts punitifs à la victime alors que se déroule le procès clé sur le pilote automatique.
Un juge de Floride, Reid Scott, a jugé qu’il existait des « preuves raisonnables » permettant de conclure que Tesla et son PDG, Elon Musk, étaient au courant des défauts des systèmes de pilote automatique et n’avaient pas réussi à les corriger. Les témoignages des ingénieurs de Tesla et des documents internes ont montré que Musk était « intimement impliqué » dans le programme de pilote automatique de Tesla et « parfaitement conscient » d’un défaut parfois fatal – où le pilote automatique ne parvient pas à détecter le trafic croisé à plusieurs reprises, a écrit Scott.
“Sachant que le système Autopilot avait déjà échoué, avait des limites” et, selon un ingénieur système de Tesla Autopilot, “n’avait pas été modifié, Tesla a quand même autorisé l’activation du système ‘Autopilot’ sur les routes qui rencontraient des zones de trafic transversal.” Scott a écrit.
Parce qu’un jury pourrait peut-être considérer qu’il s’agit d’un « mépris conscient ou d’une indifférence à l’égard de la vie » des conducteurs de Tesla, Scott a fait droit à une requête visant à demander des dommages-intérêts punitifs à Kim Banner, dont le mari Jeremy a été tué en 2019 lorsque sa « Model 3 roulait sous la remorque de un gros camion à 18 roues qui avait tourné sur la route, arrachant le toit de la Tesla", a rapporté Reuters. Le pilote automatique n’aurait pas averti Jeremy ni réagi d’une manière qui aurait pu éviter la collision, comme freiner ou diriger le véhicule hors de danger, indique la plainte de Banner.
Ce qui semble le plus inquiétant pour le juge, les ingénieurs de Tesla ont déclaré à Scott qu’après la mort de Banner en 2019 et la mort « étrangement similaire » d’un autre conducteur de Floride, Joshua Brown, en 2016, le constructeur automobile n’a rien fait pour intervenir ou mettre à jour le système de détection de trafic transversal d’Autopilot. Tesla continue aujourd’hui de commercialiser la fonction de pilote automatique comme étant sûre pour les conducteurs, a écrit Scott.
“Il serait raisonnable de conclure que [Tesla] a rejeté les informations dont elle disposait en faveur de sa campagne de marketing dans le but de vendre des véhicules sous le label d’autonomie”, a écrit Scott.
Scott a noté que la commercialisation du pilote automatique par Tesla est “importante” dans ce cas, soulignant une vidéo de 2016 qui se trouve toujours sur le site Web de Tesla, dans laquelle Tesla affirmait que “la voiture se conduit toute seule”. La vidéo, a écrit Scott, montre les scénarios de navigation en voiture « qui ne sont pas différents » de la rencontre transversale avec un camion qui a tué le mari de Banner.
“Il n’y a aucune indication dans cette vidéo que la vidéo est ambitieuse ou que cette technologie n’existe pas actuellement sur le marché”, a écrit Scott.
La décision de Scott est considérée comme un coup dur pour Tesla, qui avait nié toute responsabilité dans la mort de Banner, arguant que l’erreur humaine était en cause parce que “son manuel et l’accord ‘clickwrap’ ont suffisamment averti” les propriétaires de Tesla des limites du pilote automatique.
Le juge a écrit que Tesla serait en mesure de faire valoir cet argument au procès – qui a été retardé – mais à ce stade, un jury présenté avec les preuves disponibles pourrait raisonnablement déclarer Tesla coupable à la fois de faute intentionnelle et de négligence grave. Le résultat d’un tel verdict pourrait obliger Tesla à accorder d’énormes dommages-intérêts qui, selon les experts, pourraient également nuire énormément à la réputation de Tesla. Au procès, Banner fera probablement valoir que ces avertissements étaient inadéquats.
L’avocat de Banner, Lake “Trey” Lytal III, a déclaré à Reuters qu’ils étaient “extrêmement fiers de ce résultat basé sur la preuve d’une conduite punitive”.
Musk est le « leader de facto » de l’équipe Autopilot
Bien qu’il ait été qualifié de “leader de facto” de l’équipe Autopilot dans les courriels internes de Tesla, Musk n’a pas fourni de déposition dans le cas de Banner, ce qui était l’une des premières fois où Tesla a dû se défendre contre les affirmations selon lesquelles l’Autopilot était fatalement défectueux, a rapporté Reuters . . En août, Tesla a apparemment également tenté de limiter les dégâts en cherchant à « garder secrets les transcriptions des dépositions de ses employés et d’autres documents », a noté Reuters.
L’ordonnance de Scott semble désormais indiquer clairement pourquoi Tesla a pu considérer ces dépositions et ces documents comme si accablants.
La fonction Autopilot de Tesla fait l’objet d’une enquête depuis des années. En 2021, alors que Tesla commençait à tester expérimentalement cette fonctionnalité auprès de conducteurs jugés sûrs, les États-Unis ont lancé une enquête majeure après que 11 Tesla se sont écrasées sur des véhicules d’urgence . La même année, Consumer Reports a découvert que le pilote automatique pouvait facilement être configuré pour fonctionner sans conducteur assis sur le siège , ce qui soulevait davantage de problèmes de sécurité.
À l’été 2022, la National Highway Traffic Safety Administration (NHTSA) avait documenté 273 accidents impliquant des Tesla utilisant des systèmes de pilote automatique , et lorsque la saison est arrivée à l’automne, le gouvernement fédéral a rapidement ouvert une enquête criminelle sur les allégations du pilote automatique de Tesla, “examinant si Tesla avait induit les consommateurs en erreur”. , les investisseurs et les régulateurs en faisant des affirmations non étayées sur les capacités de sa technologie d’aide à la conduite.
Les problèmes de Tesla se sont poursuivis tout au long de l’année 2023. L’année a commencé lorsque Tesla a annoncé à ses investisseurs qu’elle faisait l’objet d’une enquête de la part du ministère de la Justice , qui avait demandé des documents relatifs aux fonctionnalités de pilote automatique et de conduite entièrement autonome de Tesla. À peu près au même moment, il est apparu que Tesla avait organisé la démonstration de conduite autonome de 2016 – un fait que Scott avait directement dénoncé dans sa commande de novembre – et que Musk avait supervisé la mise en scène .
“Je dirai au monde que c’est ce que la voiture sera capable de faire, et non pas qu’elle puisse le faire dès sa réception”, a déclaré Musk dans un e-mail adressé aux employés, dans lequel le PDG a indiqué “absolument clair que la priorité absolue de chacun”. réalise une incroyable démonstration de pilote automatique.
Les accidents mortels restent une préoccupation majeure pour les responsables qui tentent de comprendre à quel point les fonctionnalités de pilote automatique et de conduite entièrement autonome de Tesla sont sûres. En février, Tesla a atteint un nouveau plus bas et a rappelé 362 758 voitures parce que sa version bêta de conduite entièrement autonome était considérée comme trop dangereuse.
Mais Tesla n’a pas cessé de défendre ses voitures au milieu d’une surveillance constante. Cette année, Tesla a remporté deux grandes victoires lorsque le National Transportation Safety Board a conclu qu’Autopilot n’était pas impliqué dans un accident mortel de Tesla au Texas , et un jury californien a conclu que Tesla Autopilot n’était pas responsable d’un accident mortel en 2019 .
Alors que les voitures Tesla utilisent toujours des systèmes de pilote automatique potentiellement défectueux sur la route aujourd’hui, l’ordonnance de Scott autorisant Banner à modifier sa plainte pour demander des dommages-intérêts punitifs pourrait entraîner une découverte qui expose davantage la façon dont Tesla prend des décisions concernant la sécurité des conducteurs. Cela pourrait être significatif pour la NHTSA, qui a demandé plus tôt cette année des réponses à Tesla sur ses systèmes de pilote automatique, mais Tesla n’aurait apparemment pas répondu .
Selon une experte en systèmes autonomes dans les véhicules et en systèmes de surveillance des conducteurs qui a témoigné en tant qu’un des témoins de Banner, Mary « Missy » Cummings, le pilote automatique de Tesla est inférieur aux normes à bien des égards. L’opinion de Cumming était que Tesla surreprésentait la technologie du pilote automatique “car beaucoup plus performante qu’elle ne l’était en réalité” et “utilisait une technologie de détection d’évitement insuffisante”. Cummings a également suggéré que « la technologie d’atténuation de l’inattention du conducteur de couple au volant était inférieure aux normes des caméras orientées vers le conducteur utilisées par d’autres constructeurs automobiles ». En plus d’autres défauts, ces défauts prétendument majeurs, a déclaré Cummings, “ont conduit à la prévisibilité de l’accident qui en a résulté dans ce cas”, a écrit Scott.
Scott a basé une partie de son opinion spécifiquement sur le témoignage de Cummings et sur le témoignage d’Adam Gustafsson, l’ingénieur système qui a enquêté sur les accidents de Tesla de Banner et Brown, concluant qu’« il existe des preuves raisonnables à partir desquelles l’enquêteur des faits pourrait conclure que Tesla, par l’intermédiaire de ses dirigeants, , les employés et les agents savaient que le véhicule en cause était doté d’un système de pilote automatique défectueux et permettaient au véhicule équipé du système de rouler dans des zones non sûres pour cette technologie.
Il ne reste plus qu’a Elon Musk de confier les décisions de la Tesla a son intelligence artificielle (grok) et là, ce sera le bouquet
-
obligé de rappeler deux millions de véhicules
Selon l’agence de la sécurité routière américaine, la fonction de conduite assistée des véhicules Tesla peut se prêter à une mauvaise utilisation, augmentant le risque de collision
Nouveau coup dur pour Tesla: le constructeur américain de voitures électriques a engagé le rappel aux États-Unis et au Canada de quelque deux millions de véhicules pour un risque accru de collision lié à l’«Autopilot», leur système d’assistance à la conduite controversé.
Au terme d’une enquête de deux ans, l’agence de la sécurité routière américaine (NHTSA) indique, que dans certaines circonstances, la fonction de conduite assistée des véhicules Tesla peut se prêter à une mauvaise utilisation, augmentant le risque de collision.
L’enquête a révélé que la conception du système est susceptible de provoquer «un engagement du conducteur et des contrôles d’utilisation inadéquats», «ce qui peut mener à une mauvaise utilisation du système», a précisé mercredi un porte-parole de la NHTSA à l’AFP.
Source et beaucoup plus: https://www.letemps.ch/economie/autopilote-controverse-tesla-oblige-de-rappeler-deux-millions-de-vehicules
-
c’est bon de toute façon, j’en veux plus mdrrrrrrrrrrrrrrrrrr
ce qui est bon aussi, c’est la grève de 100 personnes en Suède, qui dégénère peu à peu en conflit international !!!