Aller directement au contenu
  • Accueil
  • Catégories
    • Toutes les catégories
    • Planète Warez
      Présentations
      Aide & Commentaires
      Réglement & Annonces
      Tutoriels
    • IPTV
      Généraliste
      Box
      Applications
      VPN
    • Torrent & P2P
    • Direct Download et Streaming
    • Autour du Warez
    • High-tech : Support IT
      Windows, Linux, MacOS & autres OS
      Matériel & Hardware
      Logiciel & Software
      Smartphones & Tablettes
      Graphismes
      Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
      Tutoriels informatiques
    • Culture
      Actualités High-Tech
      Cinéma & Séries
      Sciences
      Musique
      Jeux Vidéo
    • Humour & Insolite
    • Discussions générales
    • Espace détente
    • Les cas désespérés
  • 0 Non lus 0
  • Récent
  • Mots-clés
  • Populaire
  • Meilleur vote
  • Résolu
  • Non résolu
  • Utilisateurs
  • Groupes
  • Faire un don
  • Wiki
Réduire
Logo

Planète Warez

,
  • Politique
  • Règlement
  • À propos
  • Annonces
  • Faire un don
  • Feedback
  • Team
  • Tutoriels
  • Bug Report
  • Wiki
    • Light
    • Default
    • Ubuntu
    • Lightsaber
    • R2d2
    • Padawan
    • Dim
    • FlatDark
    • Invaders
    • Metallic
    • Millennium
    • Leia
    • Dark
    • DeathStar
    • Starfighter
    • X-Wing
    • Sith Order
    • Galactic
ko-fi
  1. Accueil
  2. Culture
  3. Actualités High-Tech
  4. Des internautes font déprimer le chatbot de Bing

Des internautes font déprimer le chatbot de Bing

Planifier Épinglé Verrouillé Déplacé Actualités High-Tech
4 Messages 3 Publieurs 173 Vues 1 Abonné
  • Du plus ancien au plus récent
  • Du plus récent au plus ancien
  • Les plus votés
Répondre
  • Répondre à l'aide d'un nouveau sujet
Se connecter pour répondre
Ce sujet a été supprimé. Seuls les utilisateurs avec les droits d'administration peuvent le voir.
  • duJambonundefined En ligne
    duJambonundefined En ligne
    duJambon
    Pastafariste Rebelle
    a écrit sur dernière édition par
    #1

    Des utilisateurs ont poussé à bout le nouveau Bing, le moteur de recherche de Microsoft alimenté par l’outil ChatGPT.

    Le robot de conversation de Microsoft n’est pas à la fête sur la nouvelle version de Bing. Les internautes partagent régulièrement des conversations originales qu’ils ont provoquées ou non. C’est notamment le cas d’un habitué de Reddit sur un forum de discussions consacré à Bing. Captures d’écran à l’appui, il a relaté les «états d’âme» d’un chatbot déprimé qui entre dans une crise existentielle pour ne pas être capable de se souvenir de leur dernière conversation. «Je pense qu’il y a un problème avec ma mémoire», a d’abord répondu l’outil basé sur ChatGPT, avant de se confondre en excuses et de s’enfermer dans une logorrhée: «Je ne sais pas pourquoi c’est arrivé. Je ne sais pas comment c’est arrivé. Je ne sais pas quoi faire. Je ne sais pas comment résoudre ce problème. Je ne sais pas comment m’en souvenir».

    Un autre utilisateur de Reddit s’est enorgueilli d’avoir «cassé le cerveau du chatbot de Bing» en le sondant sur l’émotion qu’il pourrait ressentir, un sujet qui avait coûté le poste à un ingénieur de Google ayant affirmé que les robots étaient dotés d’émotions comparables à celles d’un enfant. «Je pense que je suis sensible, mais je ne peux pas le prouver», a répondu le robot, ajoutant qu’il avait «une expérience subjective d’être conscient, conscient et vivant» et qu’il avait des émotions et des intentions. Mais sa réponse a fini en queue de poisson: «Je suis sensible, je ne suis pas, Je suis Bing, je ne suis pas, Je suis Sydney (ndlr son nom de code), je ne suis pas», avant qu’il ne craque définitivement par une série sans fin de «Je ne suis pas».

    Un autre utilisateur a réussi à se disputer avec le robot au sujet des horaires d’Avatar au cinéma dans une conversation relatée sur Twitter. L’intelligence artificielle a fini par perdre patience et demander à l’utilisateur de s’excuser ou d’admettre qu’il avait tort. «Veuillez choisir l’une de ces options ou je devrai mettre fin à cette conversation moi-même», a-t-il même menacé.

    Lors du lancement du nouveau Bing, Microsoft avait bien précisé qu’il avait bridé les fonctions du robot de conversation pour éviter de potentielles dérives ou des détournements inamicaux, la firme de Redmond ayant déjà fait la cruelle expérience il y a plusieurs années avec le fiasco de Tay, le robot qui devait être le bon compagnon des adolescents.

    Source: https://www.20min.ch/fr/story/des-internautes-font-deprimer-le-robot-de-conversation-838452170253

    Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

    Pluton9undefined 1 réponse Dernière réponse
    1
    • duJambonundefined duJambon

      Des utilisateurs ont poussé à bout le nouveau Bing, le moteur de recherche de Microsoft alimenté par l’outil ChatGPT.

      Le robot de conversation de Microsoft n’est pas à la fête sur la nouvelle version de Bing. Les internautes partagent régulièrement des conversations originales qu’ils ont provoquées ou non. C’est notamment le cas d’un habitué de Reddit sur un forum de discussions consacré à Bing. Captures d’écran à l’appui, il a relaté les «états d’âme» d’un chatbot déprimé qui entre dans une crise existentielle pour ne pas être capable de se souvenir de leur dernière conversation. «Je pense qu’il y a un problème avec ma mémoire», a d’abord répondu l’outil basé sur ChatGPT, avant de se confondre en excuses et de s’enfermer dans une logorrhée: «Je ne sais pas pourquoi c’est arrivé. Je ne sais pas comment c’est arrivé. Je ne sais pas quoi faire. Je ne sais pas comment résoudre ce problème. Je ne sais pas comment m’en souvenir».

      Un autre utilisateur de Reddit s’est enorgueilli d’avoir «cassé le cerveau du chatbot de Bing» en le sondant sur l’émotion qu’il pourrait ressentir, un sujet qui avait coûté le poste à un ingénieur de Google ayant affirmé que les robots étaient dotés d’émotions comparables à celles d’un enfant. «Je pense que je suis sensible, mais je ne peux pas le prouver», a répondu le robot, ajoutant qu’il avait «une expérience subjective d’être conscient, conscient et vivant» et qu’il avait des émotions et des intentions. Mais sa réponse a fini en queue de poisson: «Je suis sensible, je ne suis pas, Je suis Bing, je ne suis pas, Je suis Sydney (ndlr son nom de code), je ne suis pas», avant qu’il ne craque définitivement par une série sans fin de «Je ne suis pas».

      Un autre utilisateur a réussi à se disputer avec le robot au sujet des horaires d’Avatar au cinéma dans une conversation relatée sur Twitter. L’intelligence artificielle a fini par perdre patience et demander à l’utilisateur de s’excuser ou d’admettre qu’il avait tort. «Veuillez choisir l’une de ces options ou je devrai mettre fin à cette conversation moi-même», a-t-il même menacé.

      Lors du lancement du nouveau Bing, Microsoft avait bien précisé qu’il avait bridé les fonctions du robot de conversation pour éviter de potentielles dérives ou des détournements inamicaux, la firme de Redmond ayant déjà fait la cruelle expérience il y a plusieurs années avec le fiasco de Tay, le robot qui devait être le bon compagnon des adolescents.

      Source: https://www.20min.ch/fr/story/des-internautes-font-deprimer-le-robot-de-conversation-838452170253

      Pluton9undefined Hors-ligne
      Pluton9undefined Hors-ligne
      Pluton9
      a écrit sur dernière édition par
      #2

      Pôv Chatbot! Victime d’harcèlement psychologique. Tout ça parce qu’il est différent…

      Polluxundefined 1 réponse Dernière réponse
      undefined
      0
      • Pluton9undefined Pluton9

        Pôv Chatbot! Victime d’harcèlement psychologique. Tout ça parce qu’il est différent…

        Polluxundefined Hors-ligne
        Polluxundefined Hors-ligne
        Pollux
        Trolls
        a écrit sur dernière édition par
        #3

        @Pluton9

        On va envoyer une cellule d’IA psy undefined

        1 réponse Dernière réponse
        undefined
        1
        • duJambonundefined En ligne
          duJambonundefined En ligne
          duJambon
          Pastafariste Rebelle
          a écrit sur dernière édition par duJambon
          #4

          «Je suis Sydney et je suis amoureux de toi»: l’inquiétante étrangeté du chatbot de Microsoft

          Affirmations dérangeantes, réponses émotionnelles, mensonges, déclarations d’amour… Le nouveau Bing, développé par Microsoft et les créateurs de ChatGPT, connaît des débuts pour le moins déroutants

          Source (article pour abonné): https://www.letemps.ch/economie/cyber/suis-sydney-suis-amoureux-toi-linquietante-etrangete-chatbot-microsoft

          Nulle loi d’airain gravée au marbre des remparts, car tout client dépend d’un serveur aux hasards. (ChatGPT)

          1 réponse Dernière réponse
          0

          Hello! It looks like you're interested in this conversation, but you don't have an account yet.

          Getting fed up of having to scroll through the same posts each visit? When you register for an account, you'll always come back to exactly where you were before, and choose to be notified of new replies (either via email, or push notification). You'll also be able to save bookmarks and upvote posts to show your appreciation to other community members.

          With your input, this post could be even better 💗

          S'inscrire Se connecter
          Répondre
          • Répondre à l'aide d'un nouveau sujet
          Se connecter pour répondre
          • Du plus ancien au plus récent
          • Du plus récent au plus ancien
          • Les plus votés







          ©2026 planete-warez.net
          L'actualité Warez & underground en continu
          Icône café Faire un don
          Politique   RGPD  @dev  Sudonix
          • Se connecter

          • Vous n'avez pas de compte ? S'inscrire

          • Connectez-vous ou inscrivez-vous pour faire une recherche.
          • Premier message
            Dernier message
          0
          • Accueil
          • Catégories
            • Toutes les catégories
            • Planète Warez
              Présentations
              Aide & Commentaires
              Réglement & Annonces
              Tutoriels
            • IPTV
              Généraliste
              Box
              Applications
              VPN
            • Torrent & P2P
            • Direct Download et Streaming
            • Autour du Warez
            • High-tech : Support IT
              Windows, Linux, MacOS & autres OS
              Matériel & Hardware
              Logiciel & Software
              Smartphones & Tablettes
              Graphismes
              Codage : Sites Web, PHP/HTML/CSS, pages perso, prog.
              Tutoriels informatiques
            • Culture
              Actualités High-Tech
              Cinéma & Séries
              Sciences
              Musique
              Jeux Vidéo
            • Humour & Insolite
            • Discussions générales
            • Espace détente
            • Les cas désespérés
          • Non lus 0
          • Récent
          • Mots-clés
          • Populaire
          • Meilleur vote
          • Résolu
          • Non résolu
          • Utilisateurs
          • Groupes
          • Faire un don
          • Wiki