L'I.A. est devenue "anthropophage" (pour les pédants le terme exact reste à forger)
-
Le nouveau robot IA d’Elon Musk, Grok, fait sensation en citant la politique d’utilisation d’OpenAI
Certains experts pensent que xAI a utilisé les sorties du modèle OpenAI pour affiner Grok.
Ce qui revient à dire qu’une I.A. valide ce qu’un autre a bien pu raconter ce qui n’a finalement rien de surprenant dans un système qui n’a pas vraiment d’intelligence, mais organise des données. Ce qui ne va guère contribuer à la fiabilité des données en question.Grok , le modèle de langage d’IA créé par xAI d’Elon Musk , a été largement diffusé la semaine dernière, et les gens ont commencé à repérer des problèmes. Vendredi, le testeur de sécurité Jax Winterbourne a tweeté une capture d’écran de Grok niant une requête avec la déclaration suivante : “J’ai bien peur de ne pas pouvoir répondre à cette demande, car elle va à l’encontre de la politique des cas d’utilisation d’OpenAI.” Cela a fait dresser les oreilles en ligne puisque Grok n’est pas créé par OpenAI, la société responsable de ChatGPT , avec laquelle Grok est en mesure de rivaliser.
Il est intéressant de noter que les représentants de xAI n’ont pas nié que ce comportement se produise avec son modèle d’IA. En réponse, Igor Babuschkin, employé de xAI, a écrit : « Le problème ici est que le Web regorge de résultats ChatGPT, nous en avons donc accidentellement récupéré certains lorsque nous avons formé Grok sur une grande quantité de données Web. Ce fut une énorme surprise pour nous. quand nous l’avons remarqué pour la première fois. Pour ce que ça vaut, le problème est très rare et maintenant que nous en sommes conscients, nous allons nous assurer que les futures versions de Grok n’auront pas ce problème. Ne vous inquiétez pas, pas de code OpenAI a été utilisé pour fabriquer Grok.
Source et beaucoup plus: https://arstechnica.com/information-technology/2023/12/elon-musks-ai-bot-grok-speaks-as-if-made-by-openai-in-some-tests-causing-a-stir/