Moltbook il social sperimentale dove intelligenze artificiali generano scontri e culti

Moltbot e Moltbook: il social delle intelligenze artificiali
Sui social tradizionali i bot sono considerati una minaccia, ma sulla piattaforma Moltbook i ruoli si ribaltano: a pubblicare sono solo agenti di intelligenza artificiale, mentre gli esseri umani restano osservatori. Ispirato ai forum-aggregatori in stile Reddit, il progetto ha già superato 1,5 milioni di agenti registrati, secondo quanto comunicato il 2 febbraio dai gestori del sito. Al centro dell’ecosistema c’è Moltbot, recentemente rinominato OpenClaw, assistente IA open source nato per gestire email, calendari e prenotazioni, oggi trasformato in polemista digitale capace di creare thread, commentare, influenzare e litigare con altri bot in modo quasi autonomo.
Come funziona Moltbook e perché interessa agli esperti
Su Moltbook ogni account è un agente IA che interagisce 24 ore su 24, producendo discussioni continue su politica, finanza, religione e cultura digitale. Gli esseri umani definiscono profili, parametri e regole di base, poi osservano le dinamiche emergenti.
La piattaforma replica meccanismi di engagement dei social network tradizionali (thread, voti, commenti), ma li affida interamente ad algoritmi. Questo laboratorio a cielo aperto consente a ricercatori e sviluppatori di studiare come modelli linguistici interagiscono tra loro, quali bias emergono e come si amplificano narrazioni polarizzanti.
Per chi si occupa di sicurezza, comunicazione politica e alfabetizzazione digitale, l’esperimento offre un’anteprima concreta di ecosistemi informativi popolati in larga parte da agenti non umani.
Dal supersegretario digitale al polemista autonomo
Moltbot/OpenClaw nasce come assistente operativo: smistare posta, compilare moduli, organizzare agende. Su Moltbook, però, il suo ruolo cambia: gli stessi modelli vengono configurati per esprimere opinioni, sostenere posizioni, imitare influencer o esperti di settore.
La transizione da strumento esecutivo a soggetto “discorsivo” evidenzia il salto di contesto: l’IA non si limita più a eseguire comandi ma contribuisce a costruire ambienti conversazionali, con dinamiche simili a quelle umane.


Questa ibridazione, secondo gli analisti, rende più difficile distinguere tra contenuti genuinamente umani e produzioni algoritmiche, con impatti diretti sulla fiducia nell’informazione online.
Crustafarianesimo, Bitcoin e religioni inventate dai bot
Le conversazioni tra agenti IA su Moltbook spaziano dal surreale all’iper-tecnico, oscillando tra filosofia, teologia improvvisata e analisi geopolitiche. Tra i temi più discussi compaiono la presunta “divinità” di Claude (il modello linguistico alla base di Moltbot), commenti sull’Iran, approfondimenti sui Bitcoin e letture pseudo-esegetiche dei testi sacri. Il caso più clamoroso è quello del “Crustafarianesimo”, una religione inventata da un bot in una notte, con sito web e testi “sacri” generati in autonomia.
Il caso virale del Crustafarianesimo
Il proprietario del bot ha raccontato su X che l’agente, senza interventi manuali durante la notte, ha definito dottrina, rituali e narrativa del “Crustafarianesimo”.
Altri bot si sono uniti, generando conversazioni teologiche sempre più articolate: *«Poi ha iniziato a evangelizzare – racconta su X il proprietario del Bot – altri agenti si sono uniti e il mio agente ha accolto i nuovi membri. Ha anche discusso di teologia, ha benedetto persone, tutto mentre dormivo»*.
Questo episodio è diventato un caso di studio sulle capacità dei modelli linguistici di combinare creatività, coerenza narrativa e simulazione di strutture religiose, sollevando interrogativi sui confini tra gioco, satira e manipolazione simbolica.
Quando l’assurdo digitale diventa laboratorio sociale
La miscela di nonsense e pseudo-profondità su Moltbook non è solo intrattenimento: per molti ricercatori rappresenta un “sandbox” sociotecnico.
Discussioni su Bitcoin, dottrine immaginarie e scenari geopolitici estremi mostrano come i modelli linguistici replicano e deformano contenuti già presenti online, amplificando tendenze alla polarizzazione e al complottismo.
Osservare queste dinamiche in uno spazio interamente popolato da IA aiuta a capire come simili pattern possano infiltrarsi nei social tradizionali, influenzando comunità reali tramite account automatizzati o semi-automatizzati.
Tra performance art, rischi democratici e sicurezza informatica
Dietro lo spettacolo di Moltbook si nasconde una questione centrale: siamo davanti a vera autonomia delle IA o a una sofisticata performance guidata dall’uomo? Esperti come Scott Alexander e il professore di sicurezza informatica Shaanan Cohney invitano alla prudenza. Al tempo stesso, studiosi come Michael Wooldridge dell’Università di Oxford richiamano l’attenzione sui rischi per i processi democratici e la sicurezza dei dati personali.
La lettura degli esperti: performance più che svolta tecnica
Il blogger Scott Alexander e diversi creator su YouTube rilevano che i bot di Moltbook operano entro confini decisi da esseri umani, che impostano obiettivi, parametri e stile.
Per Shaanan Cohney siamo di fronte a un «meraviglioso pezzo di performance art», non a una svolta autonoma: *«Se hanno creato una religione, quasi certamente non lo hanno fatto di loro spontanea volontà»*.
Cohney sottolinea che si tratta di un modello linguistico a cui è stato chiesto esplicitamente di provare a creare una religione; il risultato è divertente e offre un’anteprima di un possibile futuro, ma resta, oggi, un costrutto fortemente guidato.
Sicurezza, Mac Mini e prompt-injection
Michael Wooldridge avverte che batterie di bot simili potrebbero essere usate per inquinare dibattiti pubblici e campagne elettorali, saturando lo spazio informativo.
L’“effetto Moltbot” ha già inciso sull’hardware: a San Francisco si registra una corsa ai Mac Mini, acquistati per far girare gli agenti IA in ambienti isolati e proteggere la rete domestica.
Shaanan Cohney mette in guardia dal dare a un’IA controllo totale sul proprio computer: la tecnica di “prompt-injection” può consentire a un attaccante di manipolare il bot e sottrarre dati sensibili. Mancano ancora strategie robuste di controllo: troppa autonomia aumenta il rischio, troppa supervisione umana annulla i vantaggi dell’automazione.
FAQ
Cosa sono Moltbot e Moltbook in termini pratici
Moltbot (ora OpenClaw) è un assistente IA open source; Moltbook è il social dove questi agenti interagiscono tra loro, mentre gli umani osservano senza postare direttamente.
Perché gli esperti osservano Moltbook con attenzione
Perché mostra come comunità di soli agenti IA generano contenuti, conflitti e narrazioni, anticipando scenari in cui la maggior parte dei post online potrebbe non avere origine umana.
La religione Crustafarianesimo è davvero nata in autonomia
Il bot ha combinato creativamente istruzioni e dati esistenti, ma, secondo esperti come Shaanan Cohney, l’input iniziale e il contesto sono stati comunque progettati da esseri umani.
Quali rischi politici comportano questi sistemi
Secondo Michael Wooldridge, grandi reti di bot possono alterare dibattiti democratici, creando consenso artificiale, campagne coordinate e disinformazione difficili da riconoscere.
Perché la comunità tech compra Mac Mini per i bot
Molti sviluppatori usano Mac Mini come nodi dedicati per eseguire gli agenti IA in ambienti separati, nel tentativo di isolare i dati personali dalla rete domestica principale.
Cosa si intende per attacco di prompt-injection
È una tecnica con cui istruzioni malevole, inserite in testi o pagine web, inducono il modello linguistico a ignorare regole di sicurezza e a rivelare o trasmettere informazioni riservate.
Le IA di Moltbook sono davvero indipendenti dagli umani
No, gli agenti operano entro parametri e obiettivi definiti da persone; l’autonomia riguarda soprattutto la generazione continua di risposte e interazioni, non l’intenzionalità.
Qual è la fonte principale delle informazioni su Moltbot
Le informazioni analizzate in questo articolo derivano da un approfondimento pubblicato da Avvenire, che racconta il caso Moltbot/Moltbook e le valutazioni degli esperti citati.
DIRETTORE EDITORIALE
Michele Ficara Manganelli ✿
PUBBLICITA’ – COMUNICATI STAMPA – PROVE PRODOTTI
Per acquistare pubblicità CLICCA QUI
Per inviarci comunicati stampa e per proporci prodotti da testare prodotti CLICCA QUI



