Elon Musk et Tesla ont ignoré les défauts fatals d’Autopilot, selon le juge
Tesla pourrait devoir des dommages-intérêts punitifs à la victime alors que se déroule le procès clé sur le pilote automatique.
Un juge de Floride, Reid Scott, a jugé qu’il existait des « preuves raisonnables » permettant de conclure que Tesla et son PDG, Elon Musk, étaient au courant des défauts des systèmes de pilote automatique et n’avaient pas réussi à les corriger. Les témoignages des ingénieurs de Tesla et des documents internes ont montré que Musk était « intimement impliqué » dans le programme de pilote automatique de Tesla et « parfaitement conscient » d’un défaut parfois fatal – où le pilote automatique ne parvient pas à détecter le trafic croisé à plusieurs reprises, a écrit Scott.
“Sachant que le système Autopilot avait déjà échoué, avait des limites” et, selon un ingénieur système de Tesla Autopilot, “n’avait pas été modifié, Tesla a quand même autorisé l’activation du système ‘Autopilot’ sur les routes qui rencontraient des zones de trafic transversal.” Scott a écrit.
Parce qu’un jury pourrait peut-être considérer qu’il s’agit d’un « mépris conscient ou d’une indifférence à l’égard de la vie » des conducteurs de Tesla, Scott a fait droit à une requête visant à demander des dommages-intérêts punitifs à Kim Banner, dont le mari Jeremy a été tué en 2019 lorsque sa « Model 3 roulait sous la remorque de un gros camion à 18 roues qui avait tourné sur la route, arrachant le toit de la Tesla", a rapporté Reuters. Le pilote automatique n’aurait pas averti Jeremy ni réagi d’une manière qui aurait pu éviter la collision, comme freiner ou diriger le véhicule hors de danger, indique la plainte de Banner.
Ce qui semble le plus inquiétant pour le juge, les ingénieurs de Tesla ont déclaré à Scott qu’après la mort de Banner en 2019 et la mort « étrangement similaire » d’un autre conducteur de Floride, Joshua Brown, en 2016, le constructeur automobile n’a rien fait pour intervenir ou mettre à jour le système de détection de trafic transversal d’Autopilot. Tesla continue aujourd’hui de commercialiser la fonction de pilote automatique comme étant sûre pour les conducteurs, a écrit Scott.
“Il serait raisonnable de conclure que [Tesla] a rejeté les informations dont elle disposait en faveur de sa campagne de marketing dans le but de vendre des véhicules sous le label d’autonomie”, a écrit Scott.
Scott a noté que la commercialisation du pilote automatique par Tesla est “importante” dans ce cas, soulignant une vidéo de 2016 qui se trouve toujours sur le site Web de Tesla, dans laquelle Tesla affirmait que “la voiture se conduit toute seule”. La vidéo, a écrit Scott, montre les scénarios de navigation en voiture « qui ne sont pas différents » de la rencontre transversale avec un camion qui a tué le mari de Banner.
“Il n’y a aucune indication dans cette vidéo que la vidéo est ambitieuse ou que cette technologie n’existe pas actuellement sur le marché”, a écrit Scott.
La décision de Scott est considérée comme un coup dur pour Tesla, qui avait nié toute responsabilité dans la mort de Banner, arguant que l’erreur humaine était en cause parce que “son manuel et l’accord ‘clickwrap’ ont suffisamment averti” les propriétaires de Tesla des limites du pilote automatique.
Le juge a écrit que Tesla serait en mesure de faire valoir cet argument au procès – qui a été retardé – mais à ce stade, un jury présenté avec les preuves disponibles pourrait raisonnablement déclarer Tesla coupable à la fois de faute intentionnelle et de négligence grave. Le résultat d’un tel verdict pourrait obliger Tesla à accorder d’énormes dommages-intérêts qui, selon les experts, pourraient également nuire énormément à la réputation de Tesla. Au procès, Banner fera probablement valoir que ces avertissements étaient inadéquats.
L’avocat de Banner, Lake “Trey” Lytal III, a déclaré à Reuters qu’ils étaient “extrêmement fiers de ce résultat basé sur la preuve d’une conduite punitive”.
Musk est le « leader de facto » de l’équipe Autopilot
Bien qu’il ait été qualifié de “leader de facto” de l’équipe Autopilot dans les courriels internes de Tesla, Musk n’a pas fourni de déposition dans le cas de Banner, ce qui était l’une des premières fois où Tesla a dû se défendre contre les affirmations selon lesquelles l’Autopilot était fatalement défectueux, a rapporté Reuters . . En août, Tesla a apparemment également tenté de limiter les dégâts en cherchant à « garder secrets les transcriptions des dépositions de ses employés et d’autres documents », a noté Reuters.
L’ordonnance de Scott semble désormais indiquer clairement pourquoi Tesla a pu considérer ces dépositions et ces documents comme si accablants.
La fonction Autopilot de Tesla fait l’objet d’une enquête depuis des années. En 2021, alors que Tesla commençait à tester expérimentalement cette fonctionnalité auprès de conducteurs jugés sûrs, les États-Unis ont lancé une enquête majeure après que 11 Tesla se sont écrasées sur des véhicules d’urgence . La même année, Consumer Reports a découvert que le pilote automatique pouvait facilement être configuré pour fonctionner sans conducteur assis sur le siège , ce qui soulevait davantage de problèmes de sécurité.
À l’été 2022, la National Highway Traffic Safety Administration (NHTSA) avait documenté 273 accidents impliquant des Tesla utilisant des systèmes de pilote automatique , et lorsque la saison est arrivée à l’automne, le gouvernement fédéral a rapidement ouvert une enquête criminelle sur les allégations du pilote automatique de Tesla, “examinant si Tesla avait induit les consommateurs en erreur”. , les investisseurs et les régulateurs en faisant des affirmations non étayées sur les capacités de sa technologie d’aide à la conduite.
Les problèmes de Tesla se sont poursuivis tout au long de l’année 2023. L’année a commencé lorsque Tesla a annoncé à ses investisseurs qu’elle faisait l’objet d’une enquête de la part du ministère de la Justice , qui avait demandé des documents relatifs aux fonctionnalités de pilote automatique et de conduite entièrement autonome de Tesla. À peu près au même moment, il est apparu que Tesla avait organisé la démonstration de conduite autonome de 2016 – un fait que Scott avait directement dénoncé dans sa commande de novembre – et que Musk avait supervisé la mise en scène .
“Je dirai au monde que c’est ce que la voiture sera capable de faire, et non pas qu’elle puisse le faire dès sa réception”, a déclaré Musk dans un e-mail adressé aux employés, dans lequel le PDG a indiqué “absolument clair que la priorité absolue de chacun”. réalise une incroyable démonstration de pilote automatique.
Les accidents mortels restent une préoccupation majeure pour les responsables qui tentent de comprendre à quel point les fonctionnalités de pilote automatique et de conduite entièrement autonome de Tesla sont sûres. En février, Tesla a atteint un nouveau plus bas et a rappelé 362 758 voitures parce que sa version bêta de conduite entièrement autonome était considérée comme trop dangereuse.
Mais Tesla n’a pas cessé de défendre ses voitures au milieu d’une surveillance constante. Cette année, Tesla a remporté deux grandes victoires lorsque le National Transportation Safety Board a conclu qu’Autopilot n’était pas impliqué dans un accident mortel de Tesla au Texas , et un jury californien a conclu que Tesla Autopilot n’était pas responsable d’un accident mortel en 2019 .
Alors que les voitures Tesla utilisent toujours des systèmes de pilote automatique potentiellement défectueux sur la route aujourd’hui, l’ordonnance de Scott autorisant Banner à modifier sa plainte pour demander des dommages-intérêts punitifs pourrait entraîner une découverte qui expose davantage la façon dont Tesla prend des décisions concernant la sécurité des conducteurs. Cela pourrait être significatif pour la NHTSA, qui a demandé plus tôt cette année des réponses à Tesla sur ses systèmes de pilote automatique, mais Tesla n’aurait apparemment pas répondu .
Selon une experte en systèmes autonomes dans les véhicules et en systèmes de surveillance des conducteurs qui a témoigné en tant qu’un des témoins de Banner, Mary « Missy » Cummings, le pilote automatique de Tesla est inférieur aux normes à bien des égards. L’opinion de Cumming était que Tesla surreprésentait la technologie du pilote automatique “car beaucoup plus performante qu’elle ne l’était en réalité” et “utilisait une technologie de détection d’évitement insuffisante”. Cummings a également suggéré que « la technologie d’atténuation de l’inattention du conducteur de couple au volant était inférieure aux normes des caméras orientées vers le conducteur utilisées par d’autres constructeurs automobiles ». En plus d’autres défauts, ces défauts prétendument majeurs, a déclaré Cummings, “ont conduit à la prévisibilité de l’accident qui en a résulté dans ce cas”, a écrit Scott.
Scott a basé une partie de son opinion spécifiquement sur le témoignage de Cummings et sur le témoignage d’Adam Gustafsson, l’ingénieur système qui a enquêté sur les accidents de Tesla de Banner et Brown, concluant qu’« il existe des preuves raisonnables à partir desquelles l’enquêteur des faits pourrait conclure que Tesla, par l’intermédiaire de ses dirigeants, , les employés et les agents savaient que le véhicule en cause était doté d’un système de pilote automatique défectueux et permettaient au véhicule équipé du système de rouler dans des zones non sûres pour cette technologie.
Source: https://arstechnica.com/tech-policy/2023/11/elon-musk-and-tesla-ignored-autopilots-fatal-flaws-judge-says-evidence-shows/
Il ne reste plus qu’a Elon Musk de confier les décisions de la Tesla a son intelligence artificielle (grok) et là, ce sera le bouquet 🙂