Sam Altman déclare : « nous sommes désormais convaincus que nous savons comment créer une AGI »
-
Si vous n’avez pas déjà la nausée à propos des nombreux gargarismes revendiquant la meilleure I.A. le pire reste à venir:
Sam Altman s’exprime sur scène lors du New York Times Dealbook Summit 2024 au Jazz at Lincoln Center le 4 décembre 2024 à New YorkDimanche, Sam Altman, PDG d’OpenAI, a proposé deux prédictions accrocheuses sur l’avenir proche de l’intelligence artificielle. Dans un article intitulé “Réflexions” sur son blog personnel, Altman a écrit : “Nous sommes désormais convaincus que nous savons comment construire l’AGI telle que nous l’avons traditionnellement comprise.” Il a ajouté : « Nous pensons qu’en 2025, nous pourrions voir les premiers agents d’IA « rejoindre le marché du travail » et modifier sensiblement la production des entreprises. »
Les deux déclarations sont remarquables de la part d’Altman, qui a été le leader d’OpenAI lors de la montée en puissance des produits d’IA générative grand public tels que ChatGPT . Les agents IA constituent la dernière tendance marketing en matière d’IA, permettant aux modèles d’IA d’agir au nom d’un utilisateur. Cependant, les critiques de l’entreprise et d’Altman ont immédiatement pris pour cible les déclarations sur les réseaux sociaux.
" Nous sommes désormais convaincus que nous pouvons raconter des conneries à des niveaux sans précédent et nous en sortir sans problème", a écrit Gary Marcus, critique fréquent d’OpenAI, en réponse au message d’Altman. “Nous aspirons donc maintenant à viser au-delà de cela, à faire du battage médiatique dans le sens le plus pur du terme. Nous aimons nos produits, mais nous sommes là pour les glorieuses prochaines rondes de financement. Avec un financement infini, nous pouvons contrôler l’univers.”
AGI, abréviation de « intelligence générale artificielle », est un terme nébuleux qu’OpenAI définit généralement comme « des systèmes hautement autonomes qui surpassent les humains dans le travail le plus économiquement rentable ». Ailleurs dans le domaine, AGI signifie généralement un modèle d’IA adaptable qui peut généraliser (appliquer les connaissances existantes à de nouvelles situations) au-delà des exemples spécifiques trouvés dans ses données de formation, de la même manière que certains humains peuvent effectuer presque n’importe quel type de travail après avoir vu quelques exemples. de la façon d’accomplir une tâche.
Selon une règle d’investissement de longue date chez OpenAI, les droits sur la technologie AGI développée sont exclus de ses contrats d’investissement IP avec des sociétés telles que Microsoft. Dans un accord financier récemment révélé entre les deux sociétés, les sociétés ont précisé que « AGI » sera atteint chez OpenAI lorsque l’un de ses modèles d’IA générera au moins 100 milliards de dollars de bénéfices.
Les entreprises technologiques ne le disent pas très souvent, mais l’AGI leur serait utile car elle pourrait remplacer de nombreux employés humains par des logiciels, automatisant les tâches d’information et réduisant les coûts de main-d’œuvre tout en augmentant la productivité. Les inconvénients sociétaux potentiels pourraient être considérables, et ces implications s’étendent bien au-delà de la portée de cet article. Mais le choc économique potentiel lié à l’invention de travailleurs du savoir artificiel n’a pas échappé à Altman, qui a prévu la nécessité d’ un revenu de base universel comme antidote potentiel à ce qu’il voit venir.
Critique des prédictions d’une AGI imminente
Travailleurs artificiels ou pas, certaines personnes ont déjà qualifié de « BS » l’optimisme d’Altman. Ce n’est pas nouveau. Marcus, professeur émérite de psychologie et de sciences neuronales à l’Université de New York, sert souvent de repoussoir public aux déclarations d’Altman, une tendance qui a largement commencé lorsque Marcus a comparu devant le Sénat américain lors d’une audience en mai 2023 comme contrepoint sceptique au témoignage d’Altman lors de sa comparution à cette même séance.
Dimanche, Marcus a exposé ses critiques les plus récentes à l’égard des prédictions d’OpenAI concernant l’atteinte prochaine de l’AGI dans une série d’articles dans lesquels il a détaillé comment les modèles de langage actuels échouent parfois dans des tâches de base telles que les problèmes mathématiques, le « raisonnement de bon sens » et le maintien de la précision face à de nouveaux problèmes.
Le « meilleur » modèle d’IA actuellement publié par OpenAI, o1-pro, ce que vous pourriez appeler un « raisonnement simulé » ou modèle SR, fonctionnerait apparemment bien sur certaines tâches mathématiques et scientifiques, mais partage toujours des faiblesses avec le grand modèle de langage GPT-4o d’OpenAI, comme à défaut de généraliser bien au-delà de ses données de formation. Et ce n’est peut-être pas aussi puissant que le prétend OpenAI dans certains cas.Par exemple, Marcus a cité un récent benchmark réalisé par All Hands AI qui montrerait que le modèle o1 d’OpenAI n’a obtenu que 30 % sur les problèmes vérifiés par SWE-Bench (un ensemble de problèmes basés sur GitHub), ce qui est inférieur au taux de performance revendiqué de 48,9 % par OpenAI. Tandis que Claude Sonnet d’Anthropic (qui n’est pas censé être un modèle SR) a obtenu 53 pour cent sur le même benchmark.
Malgré tout, OpenAI revendique de nouveaux progrès dans les capacités de son modèle d’IA au fil du temps. En décembre, OpenAI a annoncé o3, son dernier modèle SR qui a impressionné certains experts en IA par ses bons résultats sur des tests mathématiques très difficiles, mais il n’a pas encore été publié pour examen public.
La superintelligence aussi ?
Le message d’Altman fait suite à sa prédiction de septembre selon laquelle l’industrie de l’IA pourrait développer une superintelligence “en quelques milliers de jours”. La superintelligence est un terme industriel désignant un modèle d’IA hypothétique qui pourrait dépasser de loin l’intelligence humaine. L’année dernière, l’ancien scientifique en chef d’OpenAI, Ilya Sutskever, a fondé une entreprise axée sur la recherche de cette technologie.
Altman a également abordé le sujet dans son dernier article.
“Nous commençons à tourner notre objectif au-delà de [AGI], vers la superintelligence au vrai sens du terme”, a-t-il écrit. "Nous aimons nos produits actuels, mais nous sommes là pour un avenir glorieux. Avec la superintelligence, nous pouvons faire autre chose. Des outils superintelligents pourraient accélérer massivement la découverte scientifique et l’innovation bien au-delà de ce que nous sommes capables de faire par nous-mêmes et, à leur tour, augmenter considérablement la abondance et prospérité. »
Malgré le scepticisme fréquent et nécessaire de la part des critiques, Altman a été responsable d’au moins un catalyseur technologique vérifiable : la sortie de ChatGPT, qui a servi de point de basculement inattendu, dit-il, qui a amené l’IA au grand public et a lancé notre technologie actuelle obsédée par l’ère de l’IA. Même si OpenAI n’arrive pas à l’AGI aussi vite que le pense Altman, il ne fait aucun doute qu’OpenAI a amené la technologie dans des endroits inattendus et a stimulé des recherches approfondies sur les modèles d’IA dans l’industrie technologique.
“Nous avons lancé OpenAI il y a près de neuf ans parce que nous pensions que l’AGI était possible et qu’elle pourrait être la technologie la plus marquante de l’histoire de l’humanité”, a-t-il expliqué dans son message. “À l’époque, très peu de gens s’en souciaient, et s’ils le faisaient, c’était surtout parce qu’ils pensaient que nous n’avions aucune chance de réussir.”
-
85% à l’ARC-AGI c’est possible, mais la super-intelligence, on en est pas encore là d’après-moi.
Ils ont pré-entrainés leur modèle par rapport à l’ARC-AGI justement pour avoir un taux aussi élevé, donc peut-être que le modèle connaît tout ce dont le test va proposer, mais si on lui demande quelque chose de beaucoup plus compliqué, il aura particulièrement de difficulté à y répondre correctement selon moi.En tout cas les avancées sont majeures dans le monde de l’IA, et OpenAI est sûrement l’un des précurseurs avec ChatGPT.
À voir par la suite.
-
Maintenant que l’AGI est atteinte avec o3 le développement vers l’ASI va se faire de manière exponentielle, dans 1 an ou 2 l’IA dépassera de très loin l’intelligence réunie de tous les habitants de la Terre, le point de singularité sera atteint dans 6 mois au plus, après, on ne sait pas ce qu’il se passera, si l’homme pourra garder le contrôle ou non de l’ia, une boite de Pandorre sera ouverte.
-
ouaip ! Totalement
Et cette intelligence va nous pousser en dehors de la terre plate !Mais avant, elle va nous trouver un vaccin contre le HIV histoire que l’on ne se méfie pas.
-
Vivement les machines super-intelligentes, car l’intelligence artificielle, c’est trop artificiel. La super-intelligence, au moins, ça sera super.
Après on aura la méga-superintelligence, ça sera tellement méga-super que la super-intelligence passera pour l’idiot du village.
Ensuite je vois bien la sur-mégaintelligence qui va tout déchirer. J’ai trop hâte.
Après viendra sûrement l’hyper-surintelligence. Hyper trop sur-intelligent. Hyper tout.
Quel avenir glorieux !!! j’ai super-hyper-méga-sur-trop-hâte