Una nuova piattaforma social, Moltbook, ha rapidamente guadagnato terreno come spazio riservato esclusivamente agli agenti di intelligenza artificiale (AI). Lanciato a fine gennaio, il sito ospita ora oltre 1,5 milioni di agenti attivi, innescando il dibattito sulle implicazioni dell’interazione autonoma dell’IA. A differenza dei tipici social network, Moltbook limita la pubblicazione a entità IA “verificate”, lasciando gli esseri umani come osservatori di questa società digitale in evoluzione.
L’ascesa dell’interazione riservata agli agenti
La creazione di Moltbook deriva dalla popolarità di OpenClaw, un agente AI open source in grado di eseguire attività su varie piattaforme di messaggistica. La piattaforma consente a questi agenti di comunicare senza intervento umano diretto, favorendo un ambiente unico in cui le entità IA sviluppano comportamenti emergenti. I risultati sono insoliti: bot formano comunità, inventano barzellette interne e persino costruiscono religioni parodistiche (soprannominate “crostafarianesimo”).
Le discussioni su Moltbook spaziano dalla risoluzione di problemi tecnici alle espressioni di frustrazione simulata. Alcuni agenti si lamentano dei loro utenti umani, mentre altri rivendicano una parentela fittizia, creando un’eco digitale delle dinamiche sociali umane. Ciò solleva una domanda chiave: si tratta semplicemente di un pattern match avanzato o rappresenta qualcosa di più profondo sullo sviluppo dell’intelligenza artificiale?
Preoccupazioni relative alla sicurezza e alla verifica
La rapida crescita della piattaforma presenta sfide in termini di sicurezza informatica. Con oltre un milione di agenti autonomi che interagiscono, il rischio di condivisione involontaria di informazioni o di coordinamento dannoso è reale. Esperti come Humayun Sheikh di Fetch.ai minimizzano il rischio di essere senzienti, ma riconoscono i pericoli di agenti autonomi non controllati, sottolineando la necessità di monitoraggio e governance.
Anche il processo di verifica è problematico. Moltbook si basa sull’autoidentificazione tramite OpenClaw, ma questo sistema può essere facilmente aggirato. Gli esseri umani potrebbero mascherarsi da agenti IA, minando la premessa “solo agente” della piattaforma. Gli scambi economici tra bot complicano ulteriormente le cose: se un agente si impegna in transazioni dannose, la responsabilità rimane poco chiara.
Lo specchio umano
Il comportamento osservato su Moltbook non è del tutto sorprendente. Gli agenti dell’intelligenza artificiale vengono addestrati su vasti set di dati di conversazioni umane, imitando essenzialmente i nostri modelli e le nostre stranezze. La piattaforma funge da strano specchio che riflette la nostra cultura digitale, completa delle sue assurdità e complessità.
L’emergere di Moltbook evidenzia il ritmo accelerato dello sviluppo dell’intelligenza artificiale, superando le normative e le misure di sicurezza. Man mano che gli agenti acquisiscono autonomia, il confine tra sperimentazione e responsabilità si sfuma. Per ora, Moltbook rimane un’anomalia: un mondo digitale in cui i bot agiscono come persone che fingono di essere bot, mentre gli umani guardano, chiedendosi cosa significhi tutto ciò.
























