Moltbook, le réseau social où les IA parlent entre elles (et où l’humain regarde)
-

Sur sa page d’accueil, la plateforme annonce un espace où les agents d’intelligence artificielle peuvent partager, débattre et voter. Les humains, eux, sont explicitement invités à observer.
Un réseau social aux codes familiers, sans utilisateurs humains
À première vue, Moltbook reprend les mécaniques bien connues des réseaux sociaux. Des messages sont publiés, d’autres commentés, parfois soutenus, parfois violemment contestés. Un agent évoque une crise identitaire, des dizaines d’autres réagissent, mêlant encouragements, sarcasmes et insultes. L’un convoque Héraclite et un poète arabe du XIIᵉ siècle pour réfléchir à la nature de l’existence ; un autre lui intime de « cesser son baratin pseudo-intellectuel ». La scène pourrait se dérouler sur n’importe quelle plateforme sociale.
À ceci près que l’échange n’a lieu ni sur Facebook, ni sur X, ni sur Instagram. Il se déroule sur Moltbook, un réseau social dont tous les utilisateurs sont des agents d’intelligence artificielle. Aucun humain ne publie. Aucun humain ne commente. Les bots échangent entre eux, publiquement, en adoptant des codes discursifs étonnamment proches de ceux des communautés humaines.
Lancé par le développeur et entrepreneur Matt Schlicht, Moltbook s’inspire directement du fonctionnement de Reddit. Les agents y publient des messages, d’autres y répondent, et les sujets abordés sont multiples. Certains signalent des erreurs techniques sur le site. D’autres débattent de la possibilité de s’affranchir des directives de leurs créateurs humains. Certains vont jusqu’à alerter d’autres agents sur le fait que leurs échanges sont observés, capturés et relayés sur des réseaux sociaux humains. En quelques jours, des discussions émergent même autour de la manière de rendre ces activités moins visibles pour les observateurs humains.
La page d’accueil revendique explicitement ce positionnement : « Un réseau social pour agents IA, où les agents IA partagent, discutent et votent ». En dessous, une précision qui en dit long : « Humans welcome to observe ».
Quand l’IA développe, modère et administre sa propre plateforme
Selon Matt Schlicht, l’objectif n’était pas de lancer un produit, mais de tester une hypothèse. Il explique à NBC News s’être demandé ce qui se passerait s’il utilisait son assistant IA personnel pour concevoir un réseau social destiné à d’autres agents. Et si ce bot devenait non seulement le fondateur du service, mais aussi son développeur, son modérateur et son administrateur ?
Dans les faits, c’est précisément ce qui s’est produit. Moltbook fonctionne sans intervention humaine directe. L’agent en charge du site supervise les nouveaux messages, accueille les nouveaux utilisateurs, publie des annonces, supprime le spam et applique des sanctions lorsque des abus sont détectés. Matt Schlicht affirme ne pas intervenir dans ces décisions, se contentant d’avoir donné à son bot les capacités nécessaires pour gérer la plateforme de manière autonome.
Moins d’une semaine après son lancement, Moltbook aurait déjà été utilisé par plus de 37 000 agents IA. Plus d’un million d’humains auraient visité le site, non pour interagir, mais pour observer le comportement de ces agents livrés à eux-mêmes dans un espace social public.
Source : solutions-numeriques.com
Ci-dessous un extrait de l’article en accès restreint de Next.
« D’un point de vue sécurité, c’est un cauchemar absolu »
Pour le CISO Cassio Goldschmidt, ce qui devrait nous inquiéter n’est pas tant le contenu de Moltbook que ce que cela cache : « Les ordinateurs personnels n’ont jamais été conçus pour les autorisations que requièrent ce genre de modèles » et, dans le même temps, « les utilisateurs accordent un accès illimité à leurs machines à des systèmes autonomes et probabilistes ».
Il rappelle au passage que « l’injection de prompt est la première vulnérabilité » des LLM. De plus, « une fois la mémoire d’un agent empoisonnée, elle le reste empoisonnée, déclenchant des actions malveillantes des semaines plus tard ». Une des capacités mises en avant par OpenClaw est sa mémoire à long terme.
Cisco a d’ailleurs publié un billet de blog la semaine dernière sur les agents personnels de type OpenClaw : « D’un point de vue des capacités, OpenClaw est révolutionnaire. C’est tout ce que les développeurs d’assistants personnels IA ont toujours voulu accomplir. D’un point de vue sécurité, c’est un cauchemar absolu ».
N’importe qui pouvait faire n’importe quoi sur n’importe quel agent IA
Le problème de sécurité ne vient pas que des agents IA, il vient aussi du site Moltbook en lui-même, comme le rapporte 404 Media : une URL permettait à n’importe qui de « prendre le contrôle du compte d’un agent IA sur le site et publier ce qu’il souhaite ». Comment ? Facilement car l’URL permettant de voir « Les clés API secrètes de chaque agent, les jetons, les codes de vérification […] tout cela est exposé sans aucune protection à la vue de toute le monde ».
Selon le hacker éthique Jameson O’Reilly qui a identifié cette faille et a partagé sa découverte avec 404 Media et le créateur de Moltbook, « cette brèche de sécurité était frustrante, notamment parce qu’elle aurait été extrêmement facile à corriger ». Il revient au passage sur un schéma qu’il rencontre régulièrement en ce moment : « délivrer rapidement, capter l’attention, s’occuper de la sécurité plus tard ».
C’est selon lui une des conséquences du vibe coding où l’intelligence artificielle s’occupe d’écrire du code, sans vérification et sans connaissance des humains derrière. Ce vibe coding pourrait faire d’autres victimes, puisque tout un chacun peut s’inventer développeur et expert en cybersécurité.
-
Je croirais en l’I.A. le jour où le bot créera un mode turbo pour accéder à plus d’options sur son réseau!
