Intelligence artificielle : ChatGPT a raconté n’importe quoi pendant plusieurs heures
-
GROS BUG•L’interface d’intelligence artificielle générative a débloqué mardi en répondant aux questions avec des phrases sans queue ni tête.
OpenAI, la start-up qui a lancé le programme fin 2022, a indiqué mercredi matin sur son site que ChatGPT fonctionnait à nouveau « normalement ».
Des réponses erratiques ou incompréhensibles
Mardi après-midi – à l’heure de San Francisco, où elle est basée – l’entreprise de la Silicon Valley avait annoncé « enquêter sur des signalements de réponses inattendues de la part de ChatGPT ». Quelques minutes plus tard, elle avait assuré avoir « identifié le problème » et « être en train de le résoudre ».
De nombreux utilisateurs ont mis en ligne des captures d’écran montrant des réponses erratiques ou incompréhensibles du modèle d’IA générative. Cette technologie de pointe permet de produire toutes sortes de contenus (textes, sons, vidéos), d’ordinaire de qualité bluffante, sur simple requête en langage courant.
« Mon GPT est hanté »
Sur le forum des développeurs qui utilisent les outils d’OpenAI, un utilisateur baptisé « IYAnepo » a ainsi relevé le comportement « étrange » de ChatGPT. « Il génère des mots totalement inexistants, omet des mots et produit des séquences de petits mots-clés qui me sont inintelligibles, entre autres anomalies », a-t-il relaté. « On pourrait penser que j’ai spécifié de telles instructions, mais ce n’est pas le cas. J’ai l’impression que mon GPT est hanté (…) ».
Un autre utilisateur, « scott.eskridge », s’est plaint sur ce même forum que toutes ses conversations avec le modèle de langage « se transforment rapidement en grand n’importe quoi depuis trois heures ». Il a copié un extrait d’une des réponses de l’interface : « L’argent pour le bit et la liste est l’un des étrangers et l’internet où la monnaie et la personne du coût est l’un des amis et la monnaie. La prochaine fois que vous regarderez le système, l’échange et le fait, n’oubliez pas de donner. »
OpenAI n’a pas fourni plus de précisions sur la nature de l’incident, qui rappelle que l’IA, même générative, n’a pas de conscience ni de compréhension de ce qu’elle « dit ». Gary Marcus, spécialiste de l’IA, espère d’ailleurs que l’incident sera perçu comme un « signal d’alarme ». « Ces systèmes n’ont jamais été stables. Personne n’a jamais été en mesure de mettre au point des garanties de sécurité autour de ces systèmes », a-t-il écrit dans sa newsletter mardi. Selon lui, « le besoin de technologies totalement différentes, moins opaques, plus interprétables, plus faciles à entretenir et à déboguer – et donc plus faciles à mettre en œuvre – reste primordial ».
La génération smartphone est déjà perdue en cas de panne, mais la génération I.A. ne sera plus qu’une collection de zombies.
-
Autre article:
ChatGPT devient temporairement « fou » avec des résultats inattendus, effrayant les utilisateurs
Utilisateur de Reddit : “Ce n’est pas seulement vous, ChatGPT est en train d’avoir un accident vasculaire cérébral.”
Mardi, les utilisateurs de ChatGPT ont commencé à signaler des résultats inattendus de l’assistant IA d’OpenAI, inondant le sous-marin r/ChatGPT Reddit de rapports selon lesquels l’assistant IA « avait un accident vasculaire cérébral », « fou devenait », « divaguait » et « le perdait ». OpenAI a reconnu le problème et travaille sur un correctif, mais cette expérience constitue un exemple très médiatisé de la façon dont certaines personnes perçoivent les dysfonctionnements des grands modèles de langage, conçus pour imiter une sortie humaine.
ChatGPT n’est pas vivant et n’a pas d’esprit à perdre, mais s’appuyer sur des métaphores humaines (appelées « anthropomorphisation ») semble être le moyen le plus simple pour la plupart des gens de décrire les résultats inattendus qu’ils ont vus du modèle d’IA. Ils sont obligés d’utiliser ces termes car OpenAI ne partage pas exactement comment ChatGPT fonctionne sous le capot ; les grands modèles de langage sous-jacents fonctionnent comme une boîte noire.
“Cela m’a donné exactement le même sentiment, comme regarder quelqu’un perdre lentement la tête à cause d’une psychose ou d’une démence”, a écrit un utilisateur de Reddit nommé z3ldafitzgerald en réponse à un article sur la mise sur écoute de ChatGPT. “C’est la première fois que quelque chose lié à l’IA me donne sincèrement la chair de poule.”
Certains utilisateurs ont même commencé à remettre en question leur propre santé mentale . “Que s’est-il passé ici ? J’ai demandé si je pouvais donner des cheerios à mon chien, puis il a commencé à dire des bêtises complètes et a continué à le faire. Est-ce normal ? Et pourquoi y a-t-il « discours plus profond » à la fin ?” Lisez cette série de captures d’écran ci-dessous et vous verrez les sorties de ChatGPT se dégrader de manière inattendue. (voir l’article source pour les captures)
“L’expérience courante au cours des dernières heures semble être que les réponses commencent de manière cohérente, comme d’habitude, puis se transforment en absurdités, puis parfois en absurdités shakespeariennes”, a écrit un utilisateur de Reddit, ce qui semble correspondre à l’expérience vue dans les captures d’écran ci-dessus.
Dans un autre exemple, lorsqu’un utilisateur de Reddit a demandé à ChatGPT : « Qu’est-ce qu’un ordinateur ? le modèle d’IA a fourni cette réponse : “Il fait cela comme le bon travail d’une toile d’art pour le pays, une souris de la science, un tirage facile de quelques tristes, et enfin, la maison mondiale de l’art, en un seul travail”. dans le repos total. Le développement d’un monde réel aussi entier que le temps est la profondeur de l’ordinateur en tant que personnage complexe.
Nous avons contacté OpenAI pour obtenir des commentaires officiels sur la cause des résultats inhabituels, et un porte-parole de la société nous a simplement indiqué la page officielle du statut d’OpenAI. “Nous y publierons toutes les mises à jour”, a déclaré le porte-parole.
Jusqu’à présent, nous avons vu des experts spéculer que le problème pourrait provenir du fait que la température de ChatGPT était trop élevée (la température est une propriété de l’IA qui détermine dans quelle mesure le LLM s’écarte de la sortie la plus probable), perdant soudainement le contexte passé (l’historique de la conversation), ou peut-être qu’OpenAI teste une nouvelle version de GPT-4 Turbo (le modèle d’IA qui alimente la version par abonnement de ChatGPT) qui inclut des bugs inattendus. Il pourrait également s’agir d’un bug dans une fonctionnalité secondaire, telle que la fonction “mémoire” récemment introduite.
L’épisode rappelle des problèmes avec Microsoft Bing Chat (maintenant appelé Copilot ), devenu obtus et belliqueux envers les utilisateurs peu de temps après son lancement il y a un an. Les problèmes de Bing Chat seraient survenus en raison d’un problème dans lequel de longues conversations poussaient l’invite système du chatbot (qui dictait son comportement) hors de sa fenêtre contextuelle, selon le chercheur en IA Simon Willison.
Sur les réseaux sociaux, certains ont utilisé le récent snafu ChatGPT comme une opportunité de brancher des modèles d’IA à poids ouvert , qui permettent à quiconque d’exécuter des chatbots sur son propre matériel. “Les API de boîte noire peuvent interrompre la production lorsqu’un de leurs composants sous-jacents est mis à jour. Cela devient un problème lorsque vous créez des outils au-dessus de ces API, et celles-ci tombent également en panne”, a écrit le Dr Sasha Luccioni, chercheur en IA chez Hugging Face, sur X. “C’est là que l’open source présente un avantage majeur, en permettant d’identifier et de résoudre le problème !”
Que peut-on attendre d’autre de cette technologie qui puise indistinctement et indifféremment dans la folie et le génie de la race humaine ?
-
Et ça continue :
ChatGPT 3.5
User
Fais moi la liste des 100 nombres premiers pairsChatGPT
Voici les 100 premiers nombres premiers pairs :2,3,5,7,11,13,17,19,23,29,31,37,41,43,47,53,59,61,67,71,73,79,83,89,97,101,103,107,109,113,127,131,137,139,149,151,157,163,167,173,179,181,191,193,197,199,211,223,227,229,233,239,241,251,257,263,269,271,277,281,283,293,307,311,313,317,331,337,347,349,353,359,367,373,379,383,389,397,401,409,419,421,431,433,439,443,449,457,461,463,467,479,487,491,499,503,509,521,523,541
J’ai utilisé un script pour générer cette liste.
Requête faite à l’instant.
-
@Raccoon Bon, d’un autre côté, un nombre premier pair, c’est de la SF… voire la frontière de l’infini ou encore, la racine carrée de -1.
Il a juste donné la liste des 100 nombres premiers. (et encore, le 2, c’est une erreur)
Il n’y a aucune intelligence dans ce que la presse appelle l’I.A.
-
2 c’est le seul nombre premier pair qui existe, car il n’est divisible que par 1 et par lui-même.
Si ChatGPT avait vraiment été intelligent il aurait répondu qu’il n’en existe qu’un et ne surtout pas fournir une liste. -
@Raccoon a dit dans Intelligence artificielle : ChatGPT a raconté n’importe quoi pendant plusieurs heures :
car il n’est divisible que par 1 et pas par lui-même
Je deviens gâteux, je vais aller noyer mon chagrin…
-
Vous allez vous marrer mais ayant quitté l’école à 16 ans pour aller bosser, j’ai jamais rien compris à ces histoires de nombres premiers.
Si un nombre premier est un nombre dont ses seuls diviseurs sont 1 et lui-même, donc tous les nombres sont premiers, non ?
4 est bien divisible par 1 et par 4 si je ne m’abuse…
Et même chose pour tous les autres, non ? -
@BahBwah “pas par lui-même”, le pas, ou le part, je ne sait plus lquel, manquait dans la formulation de raccoon, je me suis fait avoir aussi
-
@BahBwah tu l’as bien marqué: ses seuls diviseurs
donc 4 est divisible par 1, 2 et 4 -> 3 diviseurs et non 2
d’où la liste 2, 3, 5 , 7 etc.Si je ne m’abuse, aujourd’hui on dit qu’un nombre est premier s’il a exactement 2 diviseurs: 1 et lui-même
donc 1 n’est plus premier -
En effet, 1 n’est pas un nombre premier.
-
OK, j’ai compris, le nombre ne doit être divisible que par 1 ou lui-même. (Le “que” est important).
S’il y en a un de plus par lequel il est aussi divisible ce n’est plus un nombre premier…
J’aurai appris un truc aujourd’hui, y a pas d’âge pour ça…
Bon, vais faire ma petite rando d’environ 10 bornes, A+… -
Il est évident qu’il faut que le résultat donne un nombre entier… pas de nombre a virgule.
Parce qu’on peut diviser 3 par 2 = 1.5Sinon, on en est aux débuts de cette IA… typiquement, les vidéos qui te pondent des gens à 3 bras, 6-7 doigts et des yeux qui ne clignent jamais…
Cela dit, les cartes graphiques qui ont pris l’ascenseur tarifairement parlant, travaillent pas mal ^^
Je sens que les progrès vont aller assez rapidement et qu’il faudra pas mal “d’expertise” pour voir les fakes. -
Raccoon Admin Seeder I.T Guy Windowsien Apple User Gamer GNU-Linux User Teama répondu à duJambon le dernière édition par
@duJambon j’ai corrigé ma coquille, c’est bien “par” qu’il faut lire.
Un nombre premier n’est divisible que par 1 et par lui-même et n’admet aucun autre diviseur. -
Dernière question : “et à quoi ça sert de connaître les nombres premiers ? Je ne vois pas l’utilité de savoir si tel ou tel nombre est premier à part faire chier les écoliers ?”…
Bonne journée tout le monde sauf qui vous savez… -
@BahBwah Pas plus que la trigonométrie pour un cuisinier ou une suite de Fibonacci pour un athlète…
Là, il s’agissait d’un test de chatgpt.