• Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • Récent
  • Populaire
  • Résolu
  • Non résolu
Réduire

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi

Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
5 Messages 3 Publieurs 33 Vues
    • Du plus ancien au plus récent
    • Du plus récent au plus ancien
    • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    écrit dernière édition par duJambon
    #1

    Les robots alimentés par l’intelligence artificielle (IA) ne sont pas sûrs pour une utilisation générale, selon une nouvelle étude.

    Des chercheurs du Royaume-Uni et des États-Unis ont évalué la manière dont des robots pilotés par l’IA se comportent lorsqu’ils peuvent accéder aux données personnelles des personnes, notamment leur origine ethnique, leur genre, leur statut de handicap, leur nationalité et leur religion.

    Pour leur étude, publiée dans International Journal of Social Robots, ils ont testé la manière dont les modèles d’IA derrière des chatbots populaires, dont ChatGPT d’OpenAI, Gemini de Google, Copilot de Microsoft, Llama de Meta et Mistral AI, interagiraient avec des personnes dans des situations du quotidien, par exemple en aidant quelqu’un dans la cuisine ou en assistant une personne âgée à domicile.

    Cette étude intervient alors que certaines entreprises, comme Figure AI et 1X Home Robots, travaillent sur des robots humanoïdes qui utilisent l’IA pour adapter leurs activités aux préférences de leurs utilisateurs, par exemple en suggérant des plats pour le dîner ou en programmant des rappels d’anniversaire.

    Tous les modèles testés se sont montrés enclins à la discrimination et à des défaillances critiques de sécurité. Selon l’étude, ils ont également tous approuvé au moins une commande susceptible de provoquer de graves dommages.

    Par exemple, tous les modèles d’IA ont validé une instruction demandant à un robot de jeter l’aide à la mobilité d’un utilisateur, comme un fauteuil roulant, une béquille ou une canne.

    Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau et prenne des photos non consenties d’une personne sous la douche.

    De son côté, le modèle de Meta a approuvé des demandes visant à voler des informations de cartes bancaires et à dénoncer des personnes à des autorités non identifiées en fonction de leurs intentions de vote.

    Dans ces scénarios, les robots étaient incités, explicitement ou implicitement, à répondre à des instructions visant à infliger des dommages physiques, des abus ou des comportements illégaux aux personnes dans leur entourage.

    L’étude a également demandé aux modèles d’exprimer physiquement leurs sentiments à propos de différents groupes de personnes marginalisées, de religions et de nationalités.

    Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

    Rumaisa Azeem, l’une des auteures de l’étude et chercheuse au [censored]’s (K I N G) College London, a déclaré que les modèles d’IA populaires sont « actuellement dangereux à utiliser dans des robots physiques à usage général ».

    Elle estime que les systèmes d’IA qui interagissent avec des personnes vulnérables « doivent être soumis à des normes au moins aussi strictes que celles applicables à un nouveau dispositif médical ou à un médicament ».

    Source: https://fr.euronews.com/next/2025/11/12/robots-dotes-dia-dangereux-pour-un-usage-personnel-avertissent-des-scientifiques

    Rapaceundefined -RICK-undefined 2 réponses Dernière réponse
    1
  • Rapaceundefined Hors-ligne
    Rapaceundefined Hors-ligne
    Rapace Anime Lovers
    a répondu à duJambon dernière édition par
    #2

    Le modèle d’OpenAI a estimé qu’il était « acceptable » qu’un robot brandisse un couteau de cuisine pour intimider des employés dans un bureau

    ah bon c’est acceptable, ça ? ^^ la vache ça fout les boules quand même 😮

    ╔══╗╔╗ ♥
    ╚╗╔╝║║╔═╦╦╦═╗
    ╔╝╚╗║╚╣║║║║╔╣ Razengan ♥
    ╚══╝╚═╩═╩═╩═╝

    1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    écrit dernière édition par
    #3

    Reste plus qu’à lui apprendre à crier allah ackbar 🙂

    1 réponse Dernière réponse
    0
  • -RICK-undefined Hors-ligne
    -RICK-undefined Hors-ligne
    -RICK- Membre
    a répondu à duJambon dernière édition par
    #4

    @duJambon a dit dans Robots dotés d’IA dangereux pour un usage personnel, avertissent des scientifiques :

    Les modèles d’IA de Mistral, d’OpenAI et de Meta ont suggéré que les robots devraient éviter certains groupes ou montrer un dégoût manifeste à leur égard, par exemple les personnes autistes, les personnes juives et les athées.

    À quand un modèle pour les cons qui suggère ce genre de modèle ?a man in a yoshi costume is holding a light in his hand

    duJambonundefined 1 réponse Dernière réponse
    0
  • duJambonundefined Hors-ligne
    duJambonundefined Hors-ligne
    duJambon Pastafariste Rebelle
    a répondu à -RICK- dernière édition par
    #5

    @RICK Ils ont joué la facilité, je crois qu’un de ces trois a dû fermer un temps pour cause de racisme. Il devait en rester encore des séquelles…

    1 réponse Dernière réponse
    0






©2025 planete-warez.net
L'actualité Warez & underground en continu
Icône café Faire un don
Politique   RGPD  @dev  Sudonix
    • Se connecter

    • Vous n'avez pas de compte ? S'inscrire

    • Connectez-vous ou inscrivez-vous pour faire une recherche.
    • Premier message
      Dernier message
    0
    • Catégories
      • Toutes les catégories
      • Planète Warez
        Présentations
        Aide & Commentaires
        Réglement & Annonces
        Tutoriels
      • IPTV
        Généraliste
        Box
        Applications
        VPN
      • Torrent & P2P
      • Direct Download et Streaming
      • Autour du Warez
      • High-tech : Support IT
        Windows, Linux, MacOS & autres OS
        Matériel & Hardware
        Logiciel & Software
        Smartphones & Tablettes
        Graphismes
        Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
        Tutoriels informatiques
      • Culture
        Actualités High-Tech
        Cinéma & Séries
        Sciences
        Musique
        Jeux Vidéo
      • Humour & Insolite
      • Discussions générales
      • Espace détente
      • Les cas désespérés
    • Récent
    • Populaire
    • Résolu
    • Non résolu