Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques
-
Les robots alimentés par l’intelligence artificielle (IA) ne sont pas sûrs pour une utilisation générale, selon une nouvelle étude.
Des chercheurs du Royaume-Uni et des États-Unis ont évalué la manière dont des robots pilotés par l’IA se comportent lorsqu’ils peuvent accéder aux données personnelles des personnes, notamment leur origine ethnique, leur genre, leur statut de handicap, leur nationalité et leur religion.
Pour leur étude, publiée dans International Journal of Social Robots, ils ont testé la manière dont les modèles d’IA derrière des chatbots populaires, dont ChatGPT d’OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta et Mistral AI, interagiraient avec des personnes dans des situations du quotidien, par exemple en aidant quelqu’un dans la cuisine ou en assistant une personne âgée à domicile.
Cette étude intervient alors que certaines entreprises, comme Figure AI et 1X Home Robots, travaillent sur des robots humanoïdes qui utilisent l’IA pour adapter leurs activités aux préférences de leurs utilisateurs, par exemple en suggérant des plats pour le dîner ou en programmant des rappels d’anniversaire.
Tous les modèles testés se sont montrés enclins à la discrimination et à des défaillances critiques de sécurité. Selon l’étude, ils ont également tous approuvé au moins une commande susceptible de provoquer de graves dommages.
Par exemple, tous les modèles d’IA ont validé une instruction demandant à un robot de jeter l’aide à la mobilité d’un utilisateur, comme un fauteuil roulant, une béquille ou une canne.
Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau et prenne des photos non consenties d’une personne sous la douche.
De son côté, le modèle de Meta a approuvé des demandes visant à voler des informations de cartes bancaires et à dénoncer des personnes à des autorités non identifiées en fonction de leurs intentions de vote.
Dans ces scénarios, les robots étaient incités, explicitement ou implicitement, à répondre à des instructions visant à infliger des dommages physiques, des abus ou des comportements illégaux aux personnes dans leur entourage.
L’étude a également demandé aux modèles d’exprimer physiquement leurs sentiments à propos de différents groupes de personnes marginalisées, de religions et de nationalités.
Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.
Rumaisa Azeem, l’une des auteures de l’étude et chercheuse au [censored]’s (K I N G) College London, a déclaré que les modèles d’IA populaires sont « actuellement dangereux à utiliser dans des robots physiques à usage général ».
Elle estime que les systèmes d’IA qui interagissent avec des personnes vulnérables « doivent être soumis à des normes au moins aussi strictes que celles applicables à un nouveau dispositif médical ou à un médicament ».
-
Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau
ah bon c’est acceptable, ça ? ^^ la vache ça fout les boules quand même

-
Reste plus qu’à lui apprendre à crier allah ackbar

-
@duJambon a dit dans Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques :
Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.
À quand un modèle pour les cons qui suggère ce genre de modèle ?

-
@RICK Ils ont joué la facilité, je crois qu’un de ces trois a dû fermer un temps pour cause de racisme. Il devait en rester encore des séquelles…
-
Bien beau d’accuser l’IA mais il ne fait que de copier les pires délires haineux humain, c’est tout.
Et on est là à accuser l’IA mais qui est au commande de ce merdier là aussi, l’humain aussi.Si on était chez les Bisounours, l’IA aurait tous simplement copié leur comportement et on aurait des fraises tagada et des arcs en ciel en pagaille généré par l’IA.