Vous n'imaginez pas les excuses que trouvent les avocats après avoir été pris la main dans le sac pour utilisation de l'IA.
-
J’ai été piraté ; j’ai perdu mes identifiants ; c’était une ébauche ; jongler entre les fenêtres est difficile.

Face à ce qu’un juge a qualifié d’« épidémie » de fausses citations de jurisprudence générées par l’IA qui engorgent les tribunaux, certaines excuses courantes émergent de la part des avocats qui espèrent échapper aux sanctions les plus sévères pour les documents jugés trompeurs.
À partir d’une base de données constituée par Damien Charlotin, avocat et chercheur français en intelligence artificielle, Ars a analysé 23 cas de sanctions infligées à des avocats pour utilisation abusive de l’IA. Dans de nombreux cas, les juges ont constaté que la solution la plus simple pour éviter ou atténuer les sanctions consistait à admettre l’utilisation de l’IA dès sa détection, à faire preuve d’humilité, à signaler l’erreur aux ordres professionnels compétents et à suivre volontairement des formations en droit et IA. Or, l’analyse d’Ars révèle que tous les avocats ne choisissent pas la facilité, nombre d’entre eux préférant avancer des excuses jugées peu crédibles par les juges. Certains vont même jusqu’à mentir sur leur utilisation de l’IA, ont conclu les juges.
Depuis 2023, date à laquelle les fausses citations d’IA ont commencé à être rendues publiques, l’excuse la plus courante est que l’avocat ignorait que l’IA avait été utilisée pour rédiger le document.
Parfois, cela signifie prétendre ne pas avoir réalisé qu’on utilisait l’IA, comme dans le cas de cet avocat californien piégé par les aperçus de l’IA de Google, qu’il a pris pour des résultats de recherche Google classiques. Le plus souvent, les avocats qui invoquent cette excuse rejettent la faute sur un subalterne, mais il arrive aussi que des clients soient mis en cause. Ce mois-ci, un avocat texan a été sanctionné pour avoir tergiversé à tel point que le tribunal a finalement dû faire témoigner sa cliente après qu’il a révélé son rôle important dans la rédaction du document erroné.
« Votre client est-il avocat ? » a demandé le tribunal.
« Non, pas du tout votre Honneur, elle m’aidait simplement à élaborer les théories de l’affaire », a déclaré l’avocat.
Une autre ruse courante consiste pour les avocats à feindre d’ignorer que les chatbots sont sujets à des hallucinations factuelles.
Des affaires récentes laissent penser que cette excuse se diversifie. Le mois dernier, un avocat de l’Oklahoma, sanctionné, a admis qu’il ne s’attendait pas à ce que ChatGPT ajoute de nouvelles citations, lui ayant simplement demandé de « rendre ses écrits plus persuasifs ». En septembre, un avocat californien s’est retrouvé dans une situation similaire et a écopé d’une amende exorbitante de 10 000 dollars, qualifiée de « prudente » par le juge. Cet avocat avait demandé à ChatGPT d’« améliorer » ses mémoires, puis les avait soumis à d’autres plateformes d’IA pour vérifier l’absence d’erreurs, sans même les lire.
Ces vieilles excuses éculées n’ont plus guère de poids aujourd’hui, surtout devant les tribunaux qui ont élaboré des directives pour traiter les hallucinations provoquées par l’IA. Mais au lieu de reconnaître rapidement leurs erreurs, comme les tribunaux le demandent instamment aux avocats, plusieurs d’entre eux semblent avoir perdu toute crédibilité. Ars a constaté qu’un certain nombre d’entre eux invoquaient des problèmes techniques courants pour justifier le recours à de fausses accusations.
En cas de doute, faut-il accuser les pirates informatiques ?
Pour un cas extrême, prenons l’exemple d’un tribunal civil de New York, où un avocat, Innocent Chinweze, a d’abord admis avoir utilisé Microsoft Copilot pour rédiger un document erroné, puis a bizarrement changé de discours pour affirmer que les citations relatives à l’IA étaient dues à un logiciel malveillant trouvé sur son ordinateur.
Chinweze a déclaré qu’il avait créé un brouillon avec des citations correctes, mais qu’il avait ensuite été piraté, permettant à des personnes mal intentionnées d’obtenir un « accès à distance non autorisé » pour soi-disant ajouter les erreurs dans son document.
Le juge s’est montré sceptique, qualifiant l’excuse d’« affirmation incroyable et sans fondement », d’autant plus qu’aucune preuve de l’existence de la version précédente n’avait été apportée. Chinweze a alors demandé qu’un expert témoigne du piratage et a sollicité la suspension de la procédure relative aux sanctions jusqu’à ce que le tribunal ait examiné l’analyse de l’expert.
Le juge, Kimon C. Thermos, n’a cependant pas eu à examiner cet argument, car après la pause déjeuner, l’avocat a de nouveau « dramatiquement » changé de position.
« Il ne souhaitait plus ajourner l’audience pour qu’un expert témoigne au sujet de logiciels malveillants ou d’un accès non autorisé à son ordinateur », a écrit Thermos dans une ordonnance de sanctions. « Il est revenu à sa position initiale, selon laquelle il utilisait Copilot pour faciliter ses recherches et ignorait que ce logiciel pouvait générer de fausses affaires. »
Mais ce qui a peut-être encore plus irrité Thermos que l’argument étrange de l’avocat concernant le logiciel malveillant, c’est un document déposé par Chinweze le jour de son audience de sanctions. Ce document comprenait plusieurs résumés précédés du texte suivant, a noté le juge :
Certaines métadonnées et certains résumés de jurisprudence ont été rédigés à l’aide d’une intelligence artificielle, ce qui peut engendrer des inexactitudes. Il est donc conseillé de lire l’intégralité du dossier avant de s’y fier pour des recherches juridiques.
Thermos a reproché à Chinweze de continuer à utiliser l’IA de manière inconsidérée. Il a fustigé le document, le qualifiant de « document incohérent de quatre-vingt-huit pages, sans structure, contenant le texte intégral de la plupart des affaires citées » et « laissant clairement entendre que certaines parties de l’analyse des affaires citées ont été rédigées par une intelligence artificielle ».
Finalement, Thermos a condamné Chinweze à payer 1 000 $, l’amende la plus courante infligée aux avocats dans les affaires examinées par Ars. Le juge a ensuite pris une mesure non pécuniaire supplémentaire pour sanctionner Chinweze, en le déférant devant un comité de discipline, « étant donné que sa faute était grave et portait sérieusement atteinte à son honnêteté, à sa fiabilité et à son aptitude à exercer le droit ».
Ars n’a pas pu joindre immédiatement Chinweze pour obtenir ses commentaires.
Basculer entre les fenêtres d’un ordinateur portable est difficile
En Alabama, un avocat nommé James A. Johnson a commis une « erreur embarrassante », a-t-il déclaré, principalement parce que basculer entre les fenêtres d’un ordinateur portable est difficile, a noté le juge de district américain Terry F. Moorer dans une ordonnance d’octobre sur les sanctions.
Johnson a expliqué avoir utilisé par inadvertance un outil d’intelligence artificielle dont il ignorait la capacité à provoquer des hallucinations. L’incident s’est produit alors qu’il se trouvait dans un hôpital hors de l’État pour s’occuper d’un membre de sa famille en convalescence après une opération. Il a précisé s’être empressé de rédiger la requête après avoir reçu un avis l’informant que l’audience de son client avait été avancée.
« Sous la pression du temps et face à des difficultés personnelles », a expliqué Johnson, il a renoncé à utiliser Fastcase, un outil de recherche fourni par le barreau de l’Alabama, pour effectuer des recherches sur le dossier. Travaillant sur son ordinateur portable, il a opté pour « un module complémentaire Microsoft Word appelé Ghostwriter Legal » car « celui-ci s’affichait automatiquement dans la barre latérale de Word, tandis que Fastcase nécessitait l’ouverture d’un navigateur distinct pour y accéder via le site web du barreau de l’Alabama ».
Pour Johnson, il était « fastidieux de passer d’un programme à l’autre sur [son] ordinateur portable avec le pavé tactile », et cela signifiait qu’il « avait malheureusement succombé à l’attrait d’un nouveau programme ouvert et disponible ».
Moorer ne semblait pas convaincu par l’affirmation de Johnson selon laquelle il comprenait que des outils comme ChatGPT n’étaient pas fiables, mais qu’il ne s’attendait pas à la même chose des autres outils juridiques d’IA, d’autant plus que « les informations de Ghostwriter Legal ont clairement indiqué qu’ils utilisaient ChatGPT comme programme d’IA par défaut », a écrit Moorer.
Le client de l’avocat était tout aussi horrifié et décida de se séparer immédiatement de Johnson, même si cela risquait de « retarder considérablement le procès ». Moorer a noté que Johnson semblait ébranlé par la décision abrupte de son client, comme en témoignaient « son air choqué, consterné et son émotion ».
Moorer a également fait remarquer que Johnson avait été rémunéré sur des fonds publics alors qu’il semblait laisser AI effectuer ses recherches. « Le préjudice est loin d’être négligeable, car les fonds publics destinés aux avocats commis d’office ne sont pas illimités et constituent une ressource limitée », a écrit le juge pour justifier une amende plus sévère.
« Il est devenu évident que les simples réprimandes et les faibles amendes ne suffisent pas à dissuader ce type de comportement répréhensible, car si tel était le cas, nous ne serions pas là aujourd’hui », a conclu Moorer.
Estimant que le recours de Johnson à l’intelligence artificielle équivalait à de la mauvaise foi, le juge Moorer lui a infligé une amende de 5 000 $. Il aurait également envisagé une éventuelle disqualification, mais cette question est devenue sans objet puisque le client de Johnson l’avait déjà congédié.
Sollicité pour un commentaire, Johnson a déclaré à Ars que « le tribunal a manifestement commis des erreurs de fait et que les sanctions font l’objet d’un appel ».
Problèmes de connexion récurrents
un avocat en Géorgie Comme l’explique , il arrive parfois que de fausses citations pour IA soient déposées parce qu’un avocat a accidentellement déposé une ébauche au lieu de la version finale.
D’autres avocats affirment avoir recours à l’IA au besoin, lorsqu’ils ont des difficultés à accéder à des outils juridiques comme Westlaw ou LexisNexis.
Par exemple, dans l’Iowa, une avocate a déclaré devant une cour d’appel regretter d’avoir utilisé des « outils de recherche secondaires basés sur l’IA » après avoir rencontré des « problèmes de connexion à son abonnement Westlaw ». Bien que la cour se soit montrée compréhensive face aux problèmes techniques, tels que les problèmes de connexion, l’avocate a été sanctionnée, principalement parce qu’elle n’a admis avoir utilisé l’IA qu’après que la cour lui ait ordonné de s’expliquer. Dans son cas, elle a toutefois eu le choix entre payer une amende minimale de 150 dollars ou suivre « deux heures de formation en déontologie juridique spécifique à l’IA ».
en Louisiane a suscité moins de clémence : une avocate, prise en flagrant délit de mensonge concernant l’outil d’IA qu’elle tenait pour responsable des inexactitudes, Une affaire a été prise en défaut. Dans cette affaire, un juge a exigé de consulter l’historique des recherches après qu’une avocate eut affirmé que les hallucinations de l’IA provenaient de « l’utilisation de Westlaw Precision, un outil de recherche assistée par IA, plutôt que de la base de données juridiques autonome de Westlaw ».
Il s’est avéré que l’avocat avait sous-traité ses recherches, se fiant aux citations générées par l’IA d’un avocat actuellement suspendu, et avait seulement supposé que ses erreurs provenaient de l’outil d’IA de Westlaw. On ignore quel outil a réellement utilisé l’avocat suspendu, qui a probablement perdu l’accès à son compte Westlaw, mais le juge a prononcé une amende de 1 000 $ après que l’avocat signataire de la requête a reconnu que Westlaw n’avait pas généré les citations falsifiées.
Le juge a mis en garde contre les « hallucinateurs en série ».
Un autre avocat, William T. Panichi, dans l’Illinois, a été sanctionné au moins trois fois, selon l’enquête d’Ars.
En réaction aux sanctions initiales prononcées en juillet, il a admis avoir été tenté par l’IA alors qu’il était « entre deux logiciels de recherche ».
Dans ce cas précis, le tribunal a été consterné de constater que l’avocat s’était contredit et a, par conséquent, ordonné des sanctions plus sévères.
Panichi « a simultanément admis avoir utilisé l’IA pour générer les mémoires, sans effectuer aucune recherche indépendante, et même qu’il n’avait “pratiquement effectué aucun travail personnel [lui]-même sur cet appel” », indique l’ordonnance du tribunal, tout en justifiant la facturation d’honoraires plus élevés — soi-disant parce que cette affaire « était hors du commun en termes de temps passé » et que son bureau « a effectué un travail exceptionnel » pour obtenir des informations.
Le tribunal a jugé cette utilisation abusive de l’IA tellement grave que Panichi a été condamné à restituer « un paiement de 6 925,62 $ qu’il avait reçu », en plus d’une amende de 1 000 $.
« Si j’ai la chance de pouvoir continuer à plaider devant la cour d’appel, je ne recommencerai pas », a déclaré Panichi à la cour en juillet, juste avant d’être frappé par deux nouvelles sanctions en août.
Panichi n’a pas immédiatement répondu à la demande de commentaires d’Ars.
Lorsque des hallucinations générées par l’IA sont découvertes, des sanctions sont souvent versées au tribunal, aux avocats de la partie adverse, ou aux deux, selon le temps et les ressources gaspillés à vérifier les faits dans de fausses affaires.
Les avocats semblent davantage enclins à s’opposer au paiement de sanctions aux avocats de la partie adverse, espérant ainsi minimiser le montant des sanctions. L’une d’entre elles a même affirmé qu’« il suffit de 7,6 secondes, et non d’heures, pour saisir des références dans LexisNexis ou Westlaw », oubliant apparemment qu’elle n’avait pas pris ces précieuses secondes pour vérifier ses propres références.
La juge Nancy Miller, en charge de l’affaire, a clairement indiqué que « de telles déclarations témoignent d’une méconnaissance stupéfiante des obligations de l’avocat », soulignant que « la responsabilité de corriger les citations erronées et falsifiées n’incombe jamais à l’avocat de la partie adverse ni au tribunal, même s’ils sont les premiers à constater les erreurs ».
« Il incombe toujours au signataire d’atténuer les préjudices causés par de telles erreurs », a déclaré Miller. « Plus ces erreurs sont corrigées rapidement, que ce soit par le retrait, la modification ou le complément des actes litigieux, moins toutes les parties concernées perdent de temps et moins les coûts sont élevés. »
La juge de district américaine du Texas, Marina Garcia Marmolejo, a acquiescé, expliquant qu’on perd encore plus de temps à déterminer comment d’autres juges ont réagi aux fausses citations générées par l’IA.
« Dans l’un des tribunaux les plus encombrés du pays, les ressources sont rares, notamment pour débusquer les citations erronées concernant l’IA, et encore moins pour examiner la jurisprudence croissante sur ce sujet », a-t-elle déclaré.
Au moins un tribunal de Floride s’est dit « stupéfait » de constater qu’un avocat refusait de payer les sommes que les avocats de la partie adverse réclamaient suite à un usage abusif de l’intelligence artificielle. L’avocat en question, James Martin Paul, demandait à payer moins du quart des honoraires et frais dus, arguant que la base de données de Charlotin montrait qu’il pourrait sinon être condamné à des sanctions « qui constitueraient les plus lourdes infligées à ce jour pour l’utilisation abusive de la jurisprudence relative à l’IA générative ».
Mais céder aux arguments de Paul « ne ferait que profiter aux personnes souffrant d’hallucinations chroniques », a conclu le tribunal de Floride. Finalement, Paul a été condamné à une amende de plus de 85 000 dollars pour une conduite que le tribunal a qualifiée de « bien plus grave » que celle des autres personnes fichées, le réprimandant pour « des agissements répétés, abusifs et de mauvaise foi qui ne sauraient être considérés comme une pratique légale légitime et qui doivent être dissuadés ».
Paul n’a pas immédiatement répondu à la demande de commentaires d’Ars.
Michael B. Slade, juge des faillites dans l’Illinois, semble en avoir fini avec les excuses et appelle tous les avocats à cesser d’utiliser des raccourcis basés sur l’IA qui surchargent les tribunaux.
« À ce stade, pour être franc, tout avocat qui ignore que l’utilisation de plateformes d’IA générative pour effectuer des recherches juridiques est un jeu dangereux vit dans un monde illusoire », a écrit Slade .
Faire faire sont boulot par l’I.A. c’est facile, mais ça nécessite encore de contrôler le résultat

-
wahhh le pavé ! Toi… T’es fana d’avocats sauce IA

Sinon, c’est juste des personnes qui font faire leurs devoirs par l’élève du fond mais qui regardent pas le résultat.
Faut s’entraîner au prompt et vérifier que le parsage est bien foutu ^^ -
Ils ont demandé à l’IA comment formuler leurs excuses ?
-
Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Teama répondu à patricelg dernière édition par
@patricelg sans doute et comme pour leur plaidoiries ils n’ont pas lu ce que l’IA a écrit.

