La décision d'IA sur les demandes d'allocations de chômage pourrait commettre des erreurs que les tribunaux ne pourraient pas réparer, préviennent les experts
-
J’ai hésité à mettre cet article dans le topic “Le monde est fou”, mais les choses semblent vraiment sérieuses, un imbécile va confier des décisions administratives mettant en jeu la vie des gens à un modèle prédictif (autant dire à une voyante de foire, ou un générateur de nombre aléatoire). Bientôt, skynet prendra vraiment le pouvoir.
Le projet du Nevada visant à laisser l’IA statuer sur les demandes de chômage est risqué, préviennent les experts.
Le Nevada deviendra bientôt le premier État à utiliser l’IA pour accélérer le processus décisionnel lors des décisions sur les appels ayant un impact sur les allocations de chômage des personnes.
Le ministère de l’Emploi, de la Formation et de la Réadaptation (DETR) de l’État a accepté de payer à Google 1 383 838 $ pour la technologie d’IA, selon un document budgétaire 2024 , et elle sera lancée dans les « prochains mois », ont déclaré des responsables du Nevada à Gizmodo .
La première IA du Nevada s’appuiera sur un service cloud de Google appelé Vertex AI Studio. En se connectant aux serveurs de Google, l’État affinera le système d’IA pour référencer uniquement les informations de la base de données du DETR, ce qui, selon les responsables, garantira que ses décisions soient « plus adaptées » et que le système fournisse « des résultats plus précis », a rapporté Gizmodo.
En vertu du contrat, DETR transférera essentiellement les données des transcriptions des audiences et des décisions en matière de chômage, après quoi le système d’IA de Google traitera ces données, les téléchargera sur le cloud, puis comparera les informations aux cas précédents.
Dans à peine cinq minutes, l’IA rendra une décision qui aurait pris environ trois heures à un employé de l’État sans utiliser l’IA, a déclaré l’administrateur des technologies de l’information du DETR, Carl Stanfield, au Nevada Independent . C’est très précieux pour le Nevada, qui a un arriéré de plus de 40 000 appels résultant d’une augmentation des demandes de chômage liée à la pandémie tout en faisant face à des « pénuries de personnel imprévues » signalées par le DETR en juillet.
“Le gain de temps est assez phénoménal”, a déclaré Stanfield. (ben voyons, tuons tous ces inutiles, y compris les anciens employés qui se retrouveront forcément au chomage, car remplacés par l’I.A.)
Par mesure de protection, la décision de l’IA est ensuite examinée par un employé de l’État pour détecter, dans l’espoir, toute erreur, tout parti pris ou, pire encore, toute hallucination dans laquelle l’IA pourrait éventuellement inventer des faits susceptibles d’avoir un impact sur l’issue de son affaire.
Le porte-parole de Google, Ashley Simms, a déclaré à Gizmodo que le géant de la technologie travaillerait avec l’État pour “identifier et traiter tout parti pris potentiel” et pour “les aider à se conformer aux exigences fédérales et étatiques”. Selon les lignes directrices de l’État en matière d’IA , l’agence doit donner la priorité à l’utilisation éthique du système d’IA, « en évitant les préjugés et en garantissant l’équité et la transparence dans les processus décisionnels ».
Si l’examinateur accepte la décision de l’IA, il la signera et rendra la décision. Sinon, l’examinateur modifiera la décision et soumettra des commentaires afin que DETR puisse enquêter sur ce qui n’a pas fonctionné.
Gizmodo a noté que cette nouvelle utilisation de l’IA “représente une expérience significative menée par des représentants de l’État et de Google en permettant à l’IA générative d’influencer une décision gouvernementale à enjeux élevés - une décision qui pourrait mettre des milliers de dollars dans les poches des chômeurs du Nevada ou les retirer”.
Google a refusé de dire si davantage d’États envisageaient d’utiliser l’IA pour évaluer les demandes d’allocations de chômage.
Les tribunaux pourraient ne pas être en mesure de réparer les erreurs de l’IA
Des experts, notamment des universitaires judiciaires, des avocats et un ancien responsable du ministère américain du Travail, ont déclaré à Gizmodo qu’il existe un risque que les employés se sentent obligés de traiter rapidement les décisions d’AI en appel en raison de « l’accent mis par le DETR sur la rapidité ».
Si le système fonctionne parfaitement, l’IA pourrait garantir que les habitants du Nevada aient accès plus rapidement aux allocations de chômage. Mais si les employés se précipitent et ne surveillent pas attentivement les hallucinations ou les erreurs, l’arriéré des appels pourrait s’aggraver à mesure que les demandeurs protestent contre les décisions erronées de l’IA. Il est également possible que les décisions d’Amnesty International « compromettent la capacité du demandeur à faire appel de cette mauvaise décision devant un tribunal civil », ont prévenu les experts, car « un tribunal de district ne peut pas substituer son propre jugement à celui de l’arbitre d’appel ». Cela signifie qu’un examinateur humain paresseux pourrait approuver une décision de l’IA qu’un tribunal ne peut pas annuler, ont suggéré les experts.
On ne sait toujours pas quel modèle Google le Nevada utilisera, a déclaré le porte-parole de Google à Gizmodo, mais Google ne peut garantir l’exactitude complète d’aucun de ses modèles d’IA. Les directives de Google en matière d’IA responsable recommandent une surveillance continue des modèles après le déploiement, en avertissant que “des problèmes surviendront : tout modèle du monde est imparfait presque par définition”.
Des recherches ont montré que les modèles de Google fournissent « des réponses incorrectes ou trompeuses aux questions entre 17 et 33 % du temps et renvoient des réponses incomplètes entre 18 et 63 % du temps », a rapporté Gizmodo.
Ce risque a apparemment fait réfléchir le Nevada avant de s’inscrire au service d’IA, du moins au début. Lorsque le DETR a commencé à parler à Google de l’utilisation potentielle de l’IA lors d’un appel commercial l’année dernière, le directeur du DETR, Christopher Sewell, a déclaré au Nevada Independent qu’il était « hésitant » à lancer le système d’IA. Et puis il y a eu « quelques nuits blanches » après la signature du contrat, a déclaré Sewell.
Mais Sewell s’est finalement joint à d’autres responsables du Nevada pour plaider en faveur de l’IA, insistant auprès du Nevada Independent en juin sur le fait que « cela fonctionnera comme nous le souhaitons », même si le document budgétaire de juin révélait qu’une « analyse d’impact sur la sécurité » n’avait pas encore été réalisée. menée. Ce document avertissait en outre que même si la technologie de Google était « bien établie », elle soulevait également « plusieurs problèmes de cybersécurité » qui doivent être pris en compte avant le déploiement du système d’IA.
Des informations sensibles sont partagées lors des audiences d’appel et l’État doit garantir qu’elles restent confidentielles, notamment les informations fiscales, les numéros de sécurité sociale et « les informations sur la santé, la famille et les finances du demandeur », a noté Gizmodo.
Pour garantir le droit des habitants du Nevada à la vie privée, la porte-parole du DETR, Valentina Bonaparte, a confirmé à Gizmodo que Google ne pourra pas accéder à ces données ni utiliser les données confidentielles traitées par le système d’IA “à d’autres fins”.
Alors que les questions éthiques et juridiques tourbillonnent avant le lancement de l’IA au Nevada, Sewell a déclaré au Nevada Independent que le DETR rêve déjà d’autres façons dont l’IA pourrait être utilisée pour rationaliser les processus au sein de l’agence. À l’avenir, a suggéré Sewell, DETR pourrait utiliser l’IA pour répondre aux questions de base des centres d’appels ou “pour aider les gens à trouver un emploi”.
“C’est notre première remise des gaz avec l’IA”, a déclaré Sewell. “Mais ce ne sera pas notre dernier.”
Et son département ne sera pas le seul à se tourner de plus en plus vers l’IA, a suggéré The Nevada Independent, notant que « les responsables de l’État ont souligné que la technologie est pratiquement assurée de devenir plus répandue au sein du gouvernement de l’État ».
Alors que les experts s’inquiètent du contrat de l’État avec Google, le directeur de l’information du Nevada, Timothy Galluzi, a promis dans les directives de l’État en matière d’IA que le Nevada était déterminé à mettre en œuvre l’IA en toute sécurité.
« L’utilisation judicieuse de l’IA peut améliorer considérablement l’efficience et l’efficacité des opérations du gouvernement de l’État », a déclaré Galluzi. “Il est cependant crucial d’équilibrer innovation et responsabilité, en veillant à ce que ces outils puissants soient utilisés de manière sûre et éthique.”
Voir également: https://planete-warez.net/topic/5995/petite-réflexion-sur-les-capacités-de-l-ia-générative?_=1725970687887
Les politiciens, “la solution finale”
-
Put1 ça s’arrête quand les conneries!
-
Du grand délire