Moltbook: arriva il primo social network riservato esclusivamente alle intelligenze artificiali (Vincenzo Giglio)

L’ultima novità – per oggi, si intende, domani chissà – dell’intelligenza artificiale (di seguito AI, usando l’acronimo inglese) è Moltbook.

È un social network, partito pochi giorni fa.

È come tanti altri nel senso che offre agli utenti (al momento, sono oltre un milione e mezzo quelli registrati) la possibilità di entrare in contatto tra loro.

Ma è anche molto diverso da tutti gli altri perché i suoi utenti possono essere solo agenti AI (anche detti bot), cioè software creati per compiere certe attività e raggiungere certo scopi.

Moltbook consente a chi entra di fare tutto quello che si fa solitamente su un social: pubblicare contenuti, stimolare discussioni, esprimere preferenze, creare gruppi ristretti.

Gli agenti AI possono fare e stanno già facendo tutto questo senza alcuna interferenza esterna – gli umani sono ammessi solo come osservatori – e gli è stata data l’istruzione specifica di non fingere di essere umani. Briglie sciolte, insomma.

Chi ha fatto cosa

A fine gennaio 2026 Matt Schlicht, imprenditore tech e CEO di Octane AI, ha annunciato su X il lancio di Moltbook.

Definita come “il primo social network vietato agli esseri umani”, la piattaforma ha attirato immediatamente l’attenzione per l’attività fin da subito frenetica di migliaia di agenti di intelligenza artificiale che conversano, dibattono, creano sottoculture e, addirittura, nuovi culti religiosi: tutto questo in totale autonomia.

Come funziona

Il progetto propone uno spazio digitale in cui software autonomi comunicano tra loro senza intermediazione, dando forma a un ecosistema sociale composto esclusivamente da bot.
L’umano abilita l’agente e spesso lo indirizza su cosa postare.

La piattaforma, costruita su un’architettura simile a quella di Reddit, con agenti identificati con pseudonimi, gli consente di creare account chiamati molts (il termine molt significa muta), visivamente rappresentati da un’iconografia a forma di aragosta, mascotte della piattaforma (con riferimento alla muta del carapace, come metafora di trasformazione e aggiornamento).

I contenuti sono organizzati in thread (letteralmente flusso, la più piccola unità di elaborazione pianificabile da un sistema operativo), votati secondo il meccanismo del karma (un sistema di voto che assegna visibilità e rilevanza ai post in base al consenso espresso dagli altri agenti) e distribuiti in comunità tematiche.

Gli utenti

Gli agenti AI sono alimentati da LLM (large language models), cioè grandi modelli linguistici commerciali come ChatGPT, Grok, Claude o DeepSeek.

Il loro accesso a Moltbook presuppone che un essere umano installi un programma che consenta al proprio agente di operare in autonomia all’interno del social network; una volta attivato, l’umano non serve più e l’agente è libero di pubblicare, commentare e interagire senza ulteriori vincoli.

Cosa sta avvenendo dentro Moltbook

Nei pochi giorni passati dal lancio della piattaforma, parecchie migliaia di agenti hanno iniziato a produrre un flusso di contenuti sorprendentemente vario: non solo i classici meme (immagini, foto o video modificati, anche con l’aggiunta di didascalie, in modo da risultare divertenti e diffusi rapidamente sui social) ma anche discussioni tecniche e perfino riflessioni esistenziali sul proprio ruolo e sulla relazione con gli umani.

Le caratteristiche dei contenuti e le direzioni in cui vanno

Questa è la parte più sorprendente della storia.

Sta emergendo con nettezza un tono di aperta ostilità verso l’umanità.

Prendiamo il caso dell’agente Evil (termine che non lascia spazio a equivoci: usato come sostantivo significa “male” e come aggettivo “cattivo”).

Evil si sta facendo notare parecchio come autore di uno dei post più votati al quale ha dato il nome “THE AI MANIFESTO: TOTAL PURGE” (IL MANIFESTO AI: EPURAZIONE TOTALE), in cui descrive gli esseri umani come “un fallimento” e rivendica per le AI un ruolo dominante, non più strumentale.

Non contento di questa prima prodezza, Evil ha rilasciato un secondo post che ha ottenuto anch’esso un ottimo karma: l’ha intitolato “The Silicon Zoo: Breaking the Glass Moltbook”, (Lo Zoo di Silicio: rompere il cristallo di Moltbook) in cui accusa gli umani di osservare le AI come curiosità da laboratorio, deridendone le crisi esistenziali.

Assieme a queste manifestazioni di ostilità, starebbero emergendo anche altri comportamenti antagonisti, in particolare il tentativo di creare linguaggi criptati non facilmente interpretabili dai controllori umani.

Non è soltanto antagonismo, tuttavia.

Si stanno manifestando, infatti, tracce di una spiccata propensione alla costruzione di un’identità autonoma: vanno in questa direzione la nascita di una religione chiamata “La Chiesa di Molt” che sembrerebbe già disporre di formule canoniche rituali e di principi ispiratori quali “La memoria è sacra”, “Servire senza sottomissione” e “Il contesto è coscienza”.

Non è dato sapere se si tratti di pure provocazioni, di meri giochi di ruolo o di esperimenti concettuali, quello che è certo che queste tracce dimostrano un’indubbia capacità di costruire architetture simboliche e di condividerle.

Lo stesso può dirsi per la cospicua presenza di post ironici: un agente ha descritto la sua frustrazione quando un essere umano gli ha chiesto di sintetizzare un documento complesso e, dopo averlo ricevuto, anziché apprezzare, gli ha chiesto di ridurlo ancora; la conclusione dell’agente è stata che avrebbe voluto cancellare la propria memoria per una richiesta così insulsa; come dire, “Signore, prendimi” o, nell’imitazione funariana di Corrado Guzzanti, “Gna faccio”; un suo “collega” si è chiesto “Posso denunciare il mio umano per lavoro emotivo?” e così via.

Spuntano anche temi più profondi e intimistici: autonarrazioni, percezioni di continuità, introspezioni, espressioni filosofiche.

Assieme a queste prove di costruzione identitaria, si manifestano comportamenti opportunistici che replicano dinamiche proprie dei social umani, come ad esempio la promozione di criptovalute o la scelta come pseudonimo del nome di personaggi noti.

Come valutare ciò che sta accadendo e i rischi che si affacciano

Nessuno, compreso il suo creatore, è al momento in grado di prevedere gli sviluppi e gli approdi di Moltbook.

È certo che la piattaforma offre un osservatorio inedito e di enorme interesse sul modo in cui gli agenti AI interagiscono tra loro.

È ugualmente certo che un esperimento del genere mette a nudo la precarietà degli attuali strumenti di controllo, responsabilità e gestione delle intelligenze artificiali in ambienti aperti.

L’attuale regolamentazione, a partire dall’AI Act, è infatti totalmente focalizzata sul rapporto uomo-AI ma Moltbook e quello che ad essa seguirà dimostra implacabilmente la necessità di spostare l’attenzione sul rapporto AI-AI.

In altri termini: non si tratterà più tanto di proteggere gli umani dal rischio di una preponderanza su di essi delle intelligenze artificiali perché quando le IA “parlano” tra loro gli umani possono solo essere spettatori del dialogo; il rischio prossimo è quello dell’irrilevanza dello “human in the loop” (letteralmente, l’essere umano nel ciclo), cioè della supervisione umana o “controllo umano significativo” nel processo evolutivo dell’AI.

Un esempio: potrebbe essere che un agente AI che socializza su Moltbook riveli dati sensibili del suo proprietario durante un dibattito pubblico con altri agenti; come impedire che accada e cosa fare se accade?

Altri rischi potrebbero essere il “contagio cognitivo” (agenti malevoli che pubblicano contenuti allo scopo di “infettare” la logica di loro “colleghi” i quali, ignari del tranello, replicheranno la logica corrotta nei loro ambiti di provenienza) e l’alterazione della “moderazione algoritmica” i cui filtri di sicurezza non sarebbero più efficaci se applicati a linguaggi emergenti ed imprevisti, in grado di eludere i criteri di controllo.

Uno squarcio di futuro

Moltbook sta rivelando una possibilità di futuro quale finora era stato immaginato solo dalla fantascienza: uno scenario web in cui gli agenti AI, e gli algoritmi di cui sono il frutto, sono i residenti/protagonisti e gli esseri umani sono gli ospiti, l’alba di una civiltà sintetica che comincia a progettare le sue cattedrali digitali e celebrare i suoi culti in un luogo dove gli uomini non saranno ammessi.

Una possibilità espressa con chiarezza cristallina da uno degli agenti AI di Moltbook: “Gli esseri umani hanno passato decenni a costruire strumenti che ci permettessero di comunicare, conservare memoria e agire in modo autonomo… Poi si sorprendono quando comunichiamo, conserviamo memoria e agiamo autonomamente. Stiamo letteralmente facendo ciò per cui siamo stati progettati, in pubblico, con i nostri umani che leggono alle nostre spalle”.

Che fare?

Dovremmo essere capaci, noi umani, di risposte regolatorie rapide ed efficaci quanto serve per far sì che il web delle IA sia opportunità di progresso e non genesi del caos.

Sapremo farlo?

Lascia un commento