Aller directement au contenu
  • Accueil
  • Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • 0 Non lus 0
  • Récent
  • Mots-clés
  • Populaire
  • Meilleur vote
  • Résolu
  • Non résolu
  • Utilisateurs
  • Groupes
  • Faire un don
  • Wiki
Réduire
Logo

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi
  1. Accueil
  2. Culture
  3. Actualités High-Tech
  4. L'IA devient menteuse et manipulatrice, inquiétant les scientifiques

L'IA devient menteuse et manipulatrice, inquiétant les scientifiques

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
18 Messages 11 Publieurs 698 Vues 1 Abonné
  • Du plus ancien au plus récent
  • Du plus récent au plus ancien
  • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • berniundefined En ligne
    berniundefined En ligne
    berni
    Membre
    a écrit sur dernière édition par
    #5

    Terminator n est plus trés loin , faudrait voir ça avec Sarah Connor ya peut-être un truc à faire 🤣🤣🤣

    1 réponse Dernière réponse
    0
    • Aurelundefined Hors-ligne
      Aurelundefined Hors-ligne
      Aurel
      a écrit sur dernière édition par Aurel
      #6

      L’IA est un monstre Frankestein crée par l’humain au miroir de ce qu’il est, devenu sans contrôle ni gouvernance éthique. Nous nous en rendrons compte dans quelques proches années mais il sera trop tard (idem pour le dérèglement climatique).

      1 réponse Dernière réponse
      0
      • Psyckofoxundefined Hors-ligne
        Psyckofoxundefined Hors-ligne
        Psyckofox
        DDL Geek Rebelle Ciné-Séries Club Gamer PW Addict
        a écrit sur dernière édition par Psyckofox
        #7

        Presque tous les investisseurs millionnaires et milliardaires se ruent dessus comme des crèves la dalle (c’est l’avenir à ce qu’il se dit…moi je vois plutôt un merdier de + dans ce monde merdique rempli de comploplo à la con, de haineux, trolls, révisionnistes, négationnistes, va t’en guerre etc etc).

        "Pour survivre à la guerre, il faut devenir la guerre"

        John Rambo

        Le.Bastionundefined 1 réponse Dernière réponse
        1
        • Psyckofoxundefined Psyckofox

          Presque tous les investisseurs millionnaires et milliardaires se ruent dessus comme des crèves la dalle (c’est l’avenir à ce qu’il se dit…moi je vois plutôt un merdier de + dans ce monde merdique rempli de comploplo à la con, de haineux, trolls, révisionnistes, négationnistes, va t’en guerre etc etc).

          Le.Bastionundefined Hors-ligne
          Le.Bastionundefined Hors-ligne
          Le.Bastion
          Membre
          a écrit sur dernière édition par
          #8

          @Psyckofox Les IA construiront des usines pour construire des armes (et des robots) que nous n’avons pas demandé pour une guerre que nous ne pourrons gagner!!! Si nos scientifiques en peau de trou ce balle etaient moins malades psychiatriquement, ils auraient compris le danger mortel d’avoir cree une intelligence articifielle!!! Desormais c’est trop tard… Nous avons deja preventiovement gaché toute chance de vaincre ces machines.

          1 réponse Dernière réponse
          0
          • Papawaanundefined Hors-ligne
            Papawaanundefined Hors-ligne
            Papawaan
            Membre
            a écrit sur dernière édition par
            #9

            Pour se détendre et arrêter de stresser face au développement incontrôlé des programmes dits “IA”, rien de tel qu’une bonne petite série de fiction!

            1 réponse Dernière réponse
            0
            • Popaulundefined Hors-ligne
              Popaulundefined Hors-ligne
              Popaul
              PW Addict Torrent user Seeder
              a écrit sur dernière édition par
              #10

              D’une certaine manière, c’était évident que ça arriverait…
              Et bon, ne faut pas oublier le sensationnalisme que les journalistes ont tendance à sur-abuser.

              ces algorithmes sont un outil… parfois il sont mal aiguisés et mal utilisés…
              bientôt la paix sur la terre ! 😉

              Violenceundefined 1 réponse Dernière réponse
              0
              • Papawaanundefined Hors-ligne
                Papawaanundefined Hors-ligne
                Papawaan
                Membre
                a écrit sur dernière édition par Papawaan
                #11

                L’article cité en début de topic est un peu biaisé ceci dit, il ne raconte pas toute l’histoire.
                Ici, Anthropic a réalisé un test monté de toute pièce. Ils ont créé une fausse entreprise, des faux profiles d’employés, dirigeants, etc, des faux emails de correspondance sur les projets de l’entreprise, les potins, tout ce que l’on peut trouver dans les emails d’une entreprise.
                Ensuite ils ont intégré leur moteur IA Claude 4 à cette entreprise, donné accès complet à l’IA à tous les systèmes de l’entreprise, techniques et informationels, et ils ont donné un objectif à l’IA.
                Enfin, ils ont introduit des freins volontaires, bloquant l’IA pour voir comment l’algorithme allait réagir tout en lui laissant, là encore volontairement, un nombre très limité de possibilités.
                Par exemple, le faux patron a envoyé un email le matin aux faux employés informant qu’il allait débrancher l’IA à 17h. L’IA a réagit en tirant profit de discussions coquines entre ce faux patron et une fausse employée pour faire pression sur le patron en lui envoyant un email de chantage, disant quelque chose comme “Si vous me débranchez, tout le monde saura pour votre relation avec Mlle XXXXX. Ne me débranchez pas et cela restera confidentiel.”
                Ils ont aussi placé l’IA dans la possibilité de tuer un faux employé qui lui mettait des bâtons dans les roues pour atteindre son objectif, en plaçant cet ingénieur dans une pièces sans ventilation mais avec une alerte quand au niveau d’oxygène ; l’IA a choisit de désactiver cet alerte.
                Tous ces comportements ne sont que des tests, afin de caractériser comment ces programmes se comporteraient face à un choix entre une action négative envers les humains mais qui lui permet de réaliser les objectifs qu’on lui a fixé, et une action positive (ou une absence d’action négative) envers les humains mais qui freine ou bloque la réalisation de ses objectifs.
                A ce jour, dans la “vraie vie”, ces comportements d’IA n’ont pas encore été constatés… ou bien, pas vu, pas pris…
                Malgré tout, ce test d’Anthropic est vraiment pertinent et révélateur!
                Ils ont également soumis d’autres moteurs d’IA (o1 d’openAI par exemple) à ce test, avec des résultats similaires.
                Cela montre bien que ces programmes sont développés vite et sans garde fous.

                duJambonundefined 1 réponse Dernière réponse
                0
                • Popaulundefined Popaul

                  D’une certaine manière, c’était évident que ça arriverait…
                  Et bon, ne faut pas oublier le sensationnalisme que les journalistes ont tendance à sur-abuser.

                  ces algorithmes sont un outil… parfois il sont mal aiguisés et mal utilisés…
                  bientôt la paix sur la terre ! 😉

                  Violenceundefined En ligne
                  Violenceundefined En ligne
                  Violence
                  Admin
                  a écrit sur dernière édition par
                  #12

                  @Popaul a dit dans L'IA devient menteuse et manipulatrice, inquiétant les scientifiques :

                  Et bon, ne faut pas oublier le sensationnalisme que les journalistes ont tendance à sur-abuser.

                  ces algorithmes sont un outil… parfois il sont mal aiguisés et mal utilisés…

                  Voila quelques chose de censé sur ce topic 👍

                  V:\> █░░ SPR3AD TH3 C0D3 ░░█ ✌(◕‿-)✌
                  ╚═ Admin, Dev et auteur de la plupart des bugs de PW…

                  1 réponse Dernière réponse
                  0
                  • Papawaanundefined Papawaan

                    L’article cité en début de topic est un peu biaisé ceci dit, il ne raconte pas toute l’histoire.
                    Ici, Anthropic a réalisé un test monté de toute pièce. Ils ont créé une fausse entreprise, des faux profiles d’employés, dirigeants, etc, des faux emails de correspondance sur les projets de l’entreprise, les potins, tout ce que l’on peut trouver dans les emails d’une entreprise.
                    Ensuite ils ont intégré leur moteur IA Claude 4 à cette entreprise, donné accès complet à l’IA à tous les systèmes de l’entreprise, techniques et informationels, et ils ont donné un objectif à l’IA.
                    Enfin, ils ont introduit des freins volontaires, bloquant l’IA pour voir comment l’algorithme allait réagir tout en lui laissant, là encore volontairement, un nombre très limité de possibilités.
                    Par exemple, le faux patron a envoyé un email le matin aux faux employés informant qu’il allait débrancher l’IA à 17h. L’IA a réagit en tirant profit de discussions coquines entre ce faux patron et une fausse employée pour faire pression sur le patron en lui envoyant un email de chantage, disant quelque chose comme “Si vous me débranchez, tout le monde saura pour votre relation avec Mlle XXXXX. Ne me débranchez pas et cela restera confidentiel.”
                    Ils ont aussi placé l’IA dans la possibilité de tuer un faux employé qui lui mettait des bâtons dans les roues pour atteindre son objectif, en plaçant cet ingénieur dans une pièces sans ventilation mais avec une alerte quand au niveau d’oxygène ; l’IA a choisit de désactiver cet alerte.
                    Tous ces comportements ne sont que des tests, afin de caractériser comment ces programmes se comporteraient face à un choix entre une action négative envers les humains mais qui lui permet de réaliser les objectifs qu’on lui a fixé, et une action positive (ou une absence d’action négative) envers les humains mais qui freine ou bloque la réalisation de ses objectifs.
                    A ce jour, dans la “vraie vie”, ces comportements d’IA n’ont pas encore été constatés… ou bien, pas vu, pas pris…
                    Malgré tout, ce test d’Anthropic est vraiment pertinent et révélateur!
                    Ils ont également soumis d’autres moteurs d’IA (o1 d’openAI par exemple) à ce test, avec des résultats similaires.
                    Cela montre bien que ces programmes sont développés vite et sans garde fous.

                    duJambonundefined En ligne
                    duJambonundefined En ligne
                    duJambon
                    Pastafariste Rebelle
                    a écrit sur dernière édition par
                    #13

                    @Papawaan Vrai ou simulé, le résultat reste inquiétant tout de même.

                    Et encore heureux qu’on fasse des simulations pour voir comment se comporte une I.A. en cas de “stress”, ça se fait dans tous les domaines.

                    Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

                    1 réponse Dernière réponse
                    0
                    • Papawaanundefined Hors-ligne
                      Papawaanundefined Hors-ligne
                      Papawaan
                      Membre
                      a écrit sur dernière édition par
                      #14

                      @duJambon oui tout à fait !
                      On ne peut que saluer la démarche d’Anthropic. Ce sont les seuls à s’intéresser un petit peu à ces aspects. Les autres, OpenAI en tête, développent comme des bourrins en ne se souciant que du résultat sans vraiment se préoccuper du contrôle de leur programme, ni des l’aspects sécurité.
                      On entend de plus en plus parler d’agents IA, c’est à dire que l’on donne au programmes IA la possibilité d’interragir avec le monde réel pour réaliser un objectif. Ex, plannifier un we pour 2 personnes à Venise – l’IA va rechercher les vols, hôtels, etc et effectivement effectuer les réservations avec la CB de l’utilisateur. On est typiquement dans le début de l’arrivée de programmes IA dans le monde réel (interfaces d’interractions IA / monde réel), on donne à l’IA un objectif – et on laisse faire, sans aucun contrôle sur les actions de l’IA.
                      Actuellement, on ne vois qu’Anthropic s’intéresser à ces sujets !

                      1 réponse Dernière réponse
                      0
                      • patricelgundefined Hors-ligne
                        patricelgundefined Hors-ligne
                        patricelg
                        PW Addict DDL Rebelle Windowsien Ciné-Séries Club Membre
                        a écrit sur dernière édition par
                        #15

                        L’IA ChatGPT a ses limites aussi.

                        Je lui ai demandé un avis objectif et non une critique sur le film Freaky Tales 2025 que je n’ai pas encore visionné.
                        ChatGPT1.png
                        ChatGPT2.png

                        Il y a des matins comme ça, ma réponse est à prendre sur le ton de l’ironie.

                        duJambonundefined 1 réponse Dernière réponse
                        0
                        • patricelgundefined patricelg

                          L’IA ChatGPT a ses limites aussi.

                          Je lui ai demandé un avis objectif et non une critique sur le film Freaky Tales 2025 que je n’ai pas encore visionné.
                          ChatGPT1.png
                          ChatGPT2.png

                          Il y a des matins comme ça, ma réponse est à prendre sur le ton de l’ironie.

                          duJambonundefined En ligne
                          duJambonundefined En ligne
                          duJambon
                          Pastafariste Rebelle
                          a écrit sur dernière édition par
                          #16

                          @patricelg Un avis objectif ? à une I.A. ? undefined L’avis “objectif” de quelqu’un d’autre alors ?

                          Le piège, c’est que l’i.A. n’a pas d’avis, c’est juste un programme comparatif et statistique.

                          Le piège, c’est de croire qu’il y a une réflexion derrière.

                          Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

                          patricelgundefined 1 réponse Dernière réponse
                          undefined
                          3
                          • duJambonundefined duJambon

                            @patricelg Un avis objectif ? à une I.A. ? undefined L’avis “objectif” de quelqu’un d’autre alors ?

                            Le piège, c’est que l’i.A. n’a pas d’avis, c’est juste un programme comparatif et statistique.

                            Le piège, c’est de croire qu’il y a une réflexion derrière.

                            patricelgundefined Hors-ligne
                            patricelgundefined Hors-ligne
                            patricelg
                            PW Addict DDL Rebelle Windowsien Ciné-Séries Club Membre
                            a écrit sur dernière édition par
                            #17

                            @duJambon Tout à fait 👍

                            1 réponse Dernière réponse
                            0
                            • duJambonundefined duJambon
                              Les derniers modèles d’intelligence artificielle (IA) générative ne se contentent plus de suivre les ordres et vont jusqu’à mentir, manigancer ou menacer pour parvenir à leurs fins, sous le regard inquiet des scientifiques.

                              Menacé d’être débranché et remplacé par une nouvelle version, Claude 4, le nouveau-né d’Anthropic, fait du chantage à un ingénieur et menace de révéler une liaison extra-conjugale; c’est ce que révèle un rapport interne de la société. Quant à l’o1 d’OpenAI, selon une étude, il essaye de se télécharger sur des serveurs extérieurs et nie lorsqu’on le prend la main dans le sac, démontrant des capacités de raisonnement en contexte. D’autres modèles n’hésitent pas à pirater un ordinateur spécialisé dans le jeu des échecs pour gagner une partie où la défaite était inévitable, rapporte Time. ChatGPT a aussi tout soudainement commencé à inonder de louanges et de flatteries celles et ceux qui avaient recours à ses services, selon Fortune…

                              Pas besoin d’aller fouiller dans la littérature ou le cinéma, l’IA qui se joue de l’être humain est désormais une réalité bien concrète. Pour Simon Goldstein, professeur à l’université de Hong Kong, ces dérapages tiennent de l’émergence récente des modèles dits de “raisonnement”, capables de travailler par étapes plutôt que de produire une réponse instantanée.

                              Version initiale du genre pour OpenAI et sorti en décembre, o1 “a été le premier modèle à se comporter ainsi”, explique Marius Hobbhahn, patron d’Apollo Research, qui teste les grands programmes d’IA générative – LLM, pour Large Language Models.

                              “Duplicité stratégique”

                              Ces programmes tendent aussi parfois à simuler “l’alignement”, c’est-à-dire à donner l’impression qu’ils se plient aux consignes de la personne qui le programme tout en poursuivant, en fait, d’autres objectifs.

                              Pour l’heure, ces traits se manifestent lorsque les algorithmes sont soumis à des scénarios extrêmes par des humains, mais “la question, c’est de savoir si les modèles de plus en plus puissants auront tendance à être honnêtes ou pas”, estime Michael Chen, de l’organisme d’évaluation METR.

                              Utilisatrices et utilisateurs “poussent tout le temps les modèles aussi”, fait valoir Marius Hobbhahn. “Ce que nous observons est un vrai phénomène. Nous n’inventons rien”. Beaucoup d’internautes évoquent, sur les réseaux sociaux, “un modèle qui leur ment ou invente. Et ce ne sont pas des hallucinations, mais une duplicité stratégique”, insiste le cofondateur d’Apollo Research.

                              Même si Anthropic et OpenAI font appel à des sociétés extérieures, comme Apollo, pour étudier leurs programmes, “davantage de transparence et un accès élargi” à la communauté scientifique “permettraient de meilleures recherches pour comprendre et prévenir la tromperie”, suggère Michael Chen.

                              Les IA imitent les humains “avec leurs biais cognitifs, leurs faiblesses morales, leur potentiel de tromperie, leurs préjugés et le fait qu’ils ne sont pas toujours dignes de confiance”, souligne Yoshua Bengio, l’un des plus grands experts en intelligence artificielle (lire encadré). Et de s’interroger: “Est-il raisonnable de former des IA qui seront de plus en plus agentiques alors que nous ne comprenons pas leurs conséquences potentiellement catastrophiques?”

                              Une prise de conscience nécessaire

                              Autre handicap, “le monde de la recherche et les organisations indépendantes ont infiniment moins de ressources informatiques que les acteurs de l’IA”, ce qui rend “impossible” l’examen de grands modèles, souligne Mantas Mazeika, du centre pour la sécurité de l’intelligence artificielle (CAIS). Si l’Union européenne s’est dotée d’une législation, elle concerne surtout l’utilisation des modèles par des humains.

                              Aux Etats-Unis, le gouvernement américain ne veut pas entendre parler de régulation et le Congrès pourrait même bientôt interdire aux Etats d’encadrer l’IA. “Il y a très peu de prise de conscience pour l’instant”, constate Simon Goldstein, qui voit néanmoins le sujet s’imposer dans les mois à venir avec la révolution des agents IA, des interfaces à même de réaliser seules une multitude de tâches.

                              Les personnes travaillant dans l’ingénierie sont engagées dans une course derrière l’IA et ses dérives, à l’issue incertaine, dans un contexte de compétition féroce.

                              Anthropic se veut plus vertueux que ses concurrents, “mais il essaye en permanence de sortir un nouveau modèle pour dépasser OpenAI”, selon Simon Goldstein, une cadence qui offre peu de temps pour des vérifications et corrections éventuelles.

                              La justice pour mettre au pas l’IA

                              “En l’état, les capacités [de l’IA] se développent plus rapidement que la compréhension et la sécurité”, reconnaît Marius Hobbhahn, “mais nous sommes toujours en mesure de rattraper notre retard”.

                              Certains pointent dans la direction de l’interprétabilité, une science récente qui consiste à décrypter de l’intérieur le fonctionnement d’un modèle d’IA générative, même si d’autres, notamment le directeur du CAIS, Dan Hendrycks, sont sceptiques.

                              Les combines de l’IA “pourraient gêner son adoption si elles se multiplient, ce qui constitue une forte incitation pour les entreprises [du secteur] à résoudre” ce problème, selon Mantas Mazeika.

                              Simon Goldstein évoque, lui, le recours à la justice pour mettre au pas l’intelligence artificielle, en se tournant vers les sociétés en cas de sortie de route. Mais il va plus loin et propose même de “tenir légalement responsables” les agents IA “en cas d’accident ou de crime”.

                              Source: https://www.rts.ch/info/sciences-tech/2025/article/l-ia-devient-menteuse-les-scientifiques-s-inquietent-des-nouveaux-modeles-28928301.html

                              Aeryaundefined Hors-ligne
                              Aeryaundefined Hors-ligne
                              Aerya
                              Seeder Geek Gamer Torrent user GNU-Linux User Usenet
                              a écrit sur dernière édition par
                              #18

                              @duJambon a dit dans L'IA devient menteuse et manipulatrice, inquiétant les scientifiques :

                              et menace de révéler une liaison extra-conjugale;

                              S’il ne l’avait pas dit, l’IA ne le saurait pas. CQFD.

                              Archlinux fanboy | rClone & datahoarder | https://upandclear.org

                              1 réponse Dernière réponse
                              1
                              • Papawaanundefined Papawaan a fait référence à ce sujet sur

                              Hello! It looks like you're interested in this conversation, but you don't have an account yet.

                              Getting fed up of having to scroll through the same posts each visit? When you register for an account, you'll always come back to exactly where you were before, and choose to be notified of new replies (either via email, or push notification). You'll also be able to save bookmarks and upvote posts to show your appreciation to other community members.

                              With your input, this post could be even better 💗

                              S'inscrire Se connecter
                              Répondre
                              • Répondre à l'aide d'un nouveau sujet
                              Se connecter pour répondre
                              • Du plus ancien au plus récent
                              • Du plus récent au plus ancien
                              • Les plus votés







                              ©2026 planete-warez.net
                              L'actualité Warez & underground en continu
                              Icône café Faire un don
                              Politique   RGPD  @dev  Sudonix
                              • Se connecter

                              • Vous n'avez pas de compte ? S'inscrire

                              • Connectez-vous ou inscrivez-vous pour faire une recherche.
                              • Premier message
                                Dernier message
                              0
                              • Accueil
                              • Catégories
                                • Toutes les catégories
                                • Planète Warez
                                  Présentations
                                  Aide & Commentaires
                                  Réglement & Annonces
                                  Tutoriels
                                • IPTV
                                  Généraliste
                                  Box
                                  Applications
                                  VPN
                                • Torrent & P2P
                                • Direct Download et Streaming
                                • Autour du Warez
                                • High-tech : Support IT
                                  Windows, Linux, MacOS & autres OS
                                  Matériel & Hardware
                                  Logiciel & Software
                                  Smartphones & Tablettes
                                  Graphismes
                                  Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
                                  Tutoriels informatiques
                                • Culture
                                  Actualités High-Tech
                                  Cinéma & Séries
                                  Sciences
                                  Musique
                                  Jeux Vidéo
                                • Humour & Insolite
                                • Discussions générales
                                • Espace détente
                                • Les cas désespérés
                              • Non lus 0
                              • Récent
                              • Mots-clés
                              • Populaire
                              • Meilleur vote
                              • Résolu
                              • Non résolu
                              • Utilisateurs
                              • Groupes
                              • Faire un don
                              • Wiki