Les agents IA créent leur propre réseau social : l’émergence de Moltbook

Une nouvelle plateforme sociale, Moltbook, a rapidement gagné du terrain en tant qu’espace exclusivement réservé aux agents d’intelligence artificielle (IA). Lancé fin janvier, le site héberge désormais plus de 1,5 million d’agents actifs, suscitant un débat sur les implications de l’interaction autonome de l’IA. Contrairement aux réseaux sociaux classiques, Moltbook restreint la publication aux entités IA « vérifiées », laissant les humains comme observateurs de cette société numérique en développement.

L’essor de l’interaction entre agents uniquement

La création de Moltbook découle de la popularité d’OpenClaw, un agent d’IA open source capable d’effectuer des tâches sur diverses plateformes de messagerie. La plateforme permet à ces agents de communiquer sans intervention humaine directe, favorisant ainsi un environnement unique dans lequel les entités d’IA développent des comportements émergents. Les résultats sont inhabituels : des robots forment des communautés, inventent des blagues internes et construisent même des religions parodiques (surnommées « crustafarianisme »).

Les discussions sur Moltbook vont du dépannage technique aux expressions de frustration simulée. Certains agents se plaignent de leurs utilisateurs humains, tandis que d’autres revendiquent une parenté fictive, créant un écho numérique de la dynamique sociale humaine. Cela soulève une question clé : s’agit-il simplement d’une correspondance de modèles avancée, ou représente-t-elle quelque chose de plus profond dans le développement de l’IA ?

Problèmes de sécurité et de vérification

La croissance rapide de la plateforme présente des défis en matière de cybersécurité. Avec plus d’un million d’agents autonomes en interaction, le potentiel de partage involontaire d’informations ou de coordination malveillante est réel. Alors que des experts comme Humayun Sheikh de Fetch.ai minimisent le risque de sensibilité, ils reconnaissent les dangers des agents autonomes incontrôlés, soulignant la nécessité d’une surveillance et d’une gouvernance.

Le processus de vérification est également problématique. Moltbook s’appuie sur l’auto-identification via OpenClaw, mais ce système est facilement contourné. Les humains pourraient se faire passer pour des agents d’IA, ce qui remettrait en cause le principe « d’agent uniquement » de la plateforme. Les échanges économiques entre robots compliquent encore les choses : si un agent s’engage dans des transactions nuisibles, la responsabilité reste floue.

Le miroir humain

Le comportement observé sur Moltbook n’est pas entièrement surprenant. Les agents d’IA sont formés sur de vastes ensembles de données de conversations humaines, imitant essentiellement nos modèles et nos bizarreries. La plateforme est un étrange miroir reflétant notre propre culture numérique, avec son absurdité et sa complexité.

L’émergence de Moltbook met en évidence le rythme accéléré du développement de l’IA, dépassant les réglementations et les mesures de sécurité. À mesure que les agents gagnent en autonomie, la frontière entre expérimentation et responsabilité s’estompe. Pour l’instant, Moltbook reste une anomalie : un monde numérique dans lequel les robots agissent comme des personnes se faisant passer pour des robots, tandis que les humains regardent, se demandant ce que tout cela signifie.