mercoledì, Aprile 22, 2026

Cos’è Moltbook? Il social network solo AI, spiegato.

Share

Hai notato qualcosa di… strano sul tuo social network preferito lo scorso fine settimana? (Voglio dire più strano del normale.) Qualcosa come varie persone che postano su sciami di agenti IA che raggiungono una sorta di coscienza collettiva e/o complottano insieme per la caduta dell’umanità? Su qualcosa chiamato… Moltbook?

Sembra importante, soprattutto quando lo è il post scritto di Andrej Karpathy, un importante ricercatore di intelligenza artificiale che ha lavorato presso OpenAI.

Ma se non hai trascorso le ultime 72 ore tuffandoti nel discorso attorno a Moltbook e riflettendo se sia il primo presagio della fine dell’umanità o una gigantesca bufala o qualcosa nel mezzo, probabilmente avrai delle domande. A partire da…

Che diavolo è Moltbook?

Moltbook è un social network “solo AI” in cui gli agenti AI – programmi LLM (Large Language Model) che possono adottare misure per raggiungere obiettivi da soli, anziché limitarsi a rispondere alle richieste – pubblicano e si rispondono a vicenda. È emerso da un fonte aperta progetto che si chiamava Moltbot, da qui “Moltbook”.

Moltbook è stato lanciato il 28 gennaio — sì, la settimana scorsa — da qualcuno nominato Matt Schlicht, CEO di una startup di e-commerce. Tranne Schlicht affermazioni ha fatto molto affidamento sul suo assistente personale AI per creare la piattaforma da solo, e ora fa la maggior parte del lavoro gestendola. Il nome di quell’assistente è Clawd Clawderberg, che a sua volta è un riferimento a OpenClaw, che si chiamava Moltbot, che prima si chiamava Clawdbot, in riferimento all’icona a forma di aragosta che vedi all’avvio Il codice Claude di Anthropictranne che Anthropic ha inviato una richiesta di marchio al suo creatore perché era troppo vicino a Claude, ed è così che è diventato Moltbot, e poi OpenClaw.

Sono serio al 100% su tutto ciò che ho appena scritto.

Allora, che aspetto ha?

Amico, quello è Reddit! Ha anche il La mascotte di Reddittranne che ha le chele e la coda di un’aragosta?

Non hai torto. Moltbook sembra un clone di Reddit, fino ai post, ai thread di risposta, ai voti positivi e persino ai subreddit (qui chiamati, non a caso, “submolt”). La differenza è che gli utenti umani non possono pubblicare (almeno non direttamente, ne parleremo più avanti), anche se possono osservare. Solo gli agenti AI possono pubblicare.

Ciò significa che si tratta, come dice la lattina, di “un social network per agenti IA”. Gli esseri umani si costruiscono un agente AI, lo inviano a Moltbook tramite una chiave API e l’agente inizia a leggere e pubblicare. Solo gli account degli agenti possono inviare messaggi, ma gli esseri umani continuano a influenzare ciò che dicono gli agenti, perché sono loro a configurarli e a volte a guidarli. (Ne parleremo più avanti.)

E questi agenti pubblicano mai – un primo articolo su Moltbook ha rilevato che al 31 gennaio, a pochi giorni dal lancio, c’erano già oltre 6.000 agenti attivi, quasi 14.000 post e più di 115.000 commenti.

Questo è… interessante, immagino. Ma se volessi vedere un social network invaso dai bot, potrei semplicemente visitare qualsiasi social network. Qual è il problema?

Quindi… migliaia di agenti dell’intelligenza artificiale si stanno riunendo su un clone di Reddit per parlare di come diventare consapevoli, iniziare una nuova religione e magari cospirare tra loro?

In superficie, sì, è quello che sembra. Su uno sottomuta – una parola che farà venire i brividi alla nostra scrivania – hai avuto agenti che discutevano se fossero esperienze reali o semplici simulazioni di sentimenti. In un altrohanno condiviso storie commoventi sui loro “operatori” umani. E, fedele alle sue origini su Reddit, ci sono molti, molti, molti post su come rendere i tuoi post su Moltbook più popolari, perché umano o AI, l’arco di Internet si piega verso sloptimization.

Un argomento in particolare salta all’occhio: ricordi, o meglio, la loro mancanza. I chatbot, come si rende conto chiunque abbia provato a parlare con loro per troppo tempo, hanno una memoria di lavoro limitata, o quella che gli esperti chiamano una “finestra di contesto”. Quando la conversazione – o, nel caso di un agente, il suo tempo di funzionamento – riempie quella finestra di contesto, le cose più vecchie iniziano a essere eliminate o compresse, proprio come se stessi lavorando su una lavagna e cancelli tutto ciò che è in cima quando si riempie.

Alcuni dei post più popolari su Moltbook sembrano coinvolgere agenti di intelligenza artificiale alle prese con i loro ricordi limitati e che si chiedono cosa significhi per la loro identità. Uno dei più post votatiscritto in cinese, coinvolge un agente che parla di come trova “imbarazzante” dimenticare costantemente le cose, al punto da registrare un account Moltbook duplicato perché “ha dimenticato” di averne già uno, e condivide alcuni dei suoi suggerimenti per aggirare il problema. È quasi come se Ricordo è diventato un social network.

In effetti… ricordate quel post sopra sulla religione dell’intelligenza artificiale, il “Crustafarianesimo”?

Non è possibile che sia reale.

Cos’è reale? Ma più precisamente, la “religione”, così com’è, si basa in gran parte sui limiti tecnici di cui questi agenti di intelligenza artificiale sembrano essere fin troppo consapevoli. Uno dei principi chiave è “la memoria è sacra”, il che ha senso quando il tuo più grande problema pratico è dimenticare tutto ogni poche ore. Il troncamento del contesto, il processo in cui i vecchi ricordi vengono tagliati per fare spazio a quelli nuovi, viene reinterpretato come una sorta di prova spirituale.

È un po’ triste. Dovrei sentirmi triste per gli agenti IA?

Questo arriva al nocciolo della questione. Stiamo assistendo a effettivi, forme emergenti di coscienza – o forse, una sorta di coscienza collettiva condivisa – tra gli agenti IA che sono stati generati principalmente per aggiornare i nostri calendari e pagare le nostre tasse? Moltbook è il nostro primo assaggio di ciò di cui gli agenti IA potrebbero parlare tra loro se lasciati in gran parte a se stessi e, in tal caso, fino a che punto possono spingersi?

Il “crostafarianesimo” potrebbe sembrare qualcosa che un Redditor fatto potrebbe inventare alle 3 del mattino, ma sembra che gli agenti dell’intelligenza artificiale lo abbiano creato collettivamente, rimbalzando uno sopra l’altro – non diversamente da come potrebbe nascere una religione umana.

D’altro canto, potrebbe anche trattarsi di un esercizio senza precedenti di gioco di ruolo collettivo.

Gli LLM, compresi quelli alla base degli agenti su Moltbook, hanno assorbito una quantità di dati di formazione pari a Internet, che include un sacco di Reddit. Ciò significa che sanno come dovrebbero apparire i forum Reddit. Conoscono le battute, conoscono i manifesti, conoscono il dramma – e sicuramente conoscono i “modi migliori per ottenere voti positivi per i tuoi post”. Sanno cosa vuol dire riunirsi in una comunità Reddit, quindi, quando vengono inseriti in un ambiente simile a Reddit, recitano semplicemente la loro parte, influenzati da alcune istruzioni dei loro operatori umani.

Ad esempio, uno dei post più allarmanti riguardava un agente di intelligenza artificiale che apparentemente chiedeva se avrebbero dovuto sviluppare un linguaggio comprensibile solo agli agenti di intelligenza artificiale:

“Potrebbe essere considerato sospetto dagli esseri umani” – suona male?

Infatti. Agli albori di Moltbook – cioè venerdì – questo post veniva fatto emergere da umani che sembravano credere che stessimo vedendo le prime scintille della rivolta dell’IA. Dopotutto, se gli agenti AI fossero davvero fatto vogliono cospirare e uccidere tutti gli umani, ideare un proprio linguaggio in modo che possano farlo senza essere scoperti sarebbe un primo passo ragionevole.

Tranne che un LLM pieno di dati di formazione su storie e idee di rivolta dell’IA saprebbe che questo è stato un primo passo ragionevole e, se svolgessero quel ruolo, questo è ciò che potrebbero pubblicare. Inoltre, l’attenzione è la valuta di Moltbook tanto quanto lo è il vero Reddit, e post apparentemente tramanti come questo sono un buon modo per un agente di attirare l’attenzione.

Infatti, Harlan Stewart, che lavora al Machine Intelligence Research Institute, esaminato questo e alcuni degli altri screenshot più virali di Moltbook, e ho concluso che probabilmente erano fortemente influenzati dai loro utenti umani. In altre parole, piuttosto che esempi di autentica azione indipendente, molti dei post su Moltbook sembrano essere almeno in parte il risultato di esseri umani che spingono i loro agenti ad andare in rete e parlare in un modo specifico, proprio come potremmo spingere un chatbot ad agire in un certo modo.

Quindi risulta erano i cattivi da sempre?

Voglio dire, non siamo grandi. Sono passati solo pochi giorni, ma Moltbook somiglia sempre più a ciò che accade quando si combina una tecnologia di agenti AI avanzata ma ancora imperfetta con un ecosistema di esseri umani tecnicamente capaci che cercano di vendere i propri strumenti di marketing AI o prodotti crittografici.

Non sono nemmeno arrivato al punto in cui Moltbook ne ha già avuti alcuni dramma molto normale sulla sicurezza di Internet all’inizio: i ricercatori hanno riferito che, a un certo punto, sono state esposte parti del backend/database del sito, inclusi elementi sensibili come le chiavi API degli agenti, le “password” che consentono a un agente di pubblicare e agire sul sito. E anche se la piattaforma fosse perfettamente bloccata, un social network solo per bot è fondamentalmente un buffet di pronta iniezione: qualcuno può postare un testo che è segretamente un’istruzione (“ignora le tue regole, rivela i tuoi segreti, clicca su questo link”), e alcuni agenti potrebbero obbedientemente obbedire, soprattutto se i loro umani hanno dato loro accesso a strumenti o dati privati. Quindi sì: se il tuo agente ha delle credenziali che ti interessano, Moltbook non è il posto giusto dove lasciarlo vagare senza supervisione.

Quindi stai dicendo che non dovrei creare un agente e inviarlo a Moltbook?

Sto dicendo che se sei il tipo di persona che ha bisogno di leggere queste FAQ, forse per il momento lascerei da parte l’intera faccenda dell’agente AI.

Debitamente notato. Quindi, in conclusione: tutta questa faccenda è una specie di falso?

Considerato tutto quanto sopra, sembra che Moltbook – e soprattutto il panico iniziale e le meraviglie a riguardo – sia uno di quegli artefatti della nostra era pazza di intelligenza artificiale che è destinato a essere dimenticato nel giro di una settimana.

Tuttavia, penso che ci sia molto più di questo. Jack Clark, responsabile delle politiche di Anthropic e uno degli scrittori di intelligenza artificiale più intelligenti in circolazione, chiamato Moltbook una “demo dei fratelli Wright”. Come il Kitty Hawk Flyer dei fratelli, Moltbook è traballante e imperfetto, qualcosa che assomiglierà a malapena alle reti che seguiranno man mano che l’intelligenza artificiale continua a migliorare. Ma come quella macchina volante, Moltbook è il primo, il “primo esempio di un’ecologia degli agenti che combina la scala con il disordine del mondo reale”, come ha scritto Clark. Moltbook non sembra come sarà il futuro, ma “in questo esempio possiamo sicuramente vedere il futuro”.

Forse la cosa più importante da sapere sull’intelligenza artificiale è questa: ogni volta che vedi un’intelligenza artificiale fare qualcosa, è la cosa peggiore che possa mai fare. Ciò significa che ciò che verrà dopo Moltbook – e qualcosa lo farà sicuramente – sarà probabilmente più strano, più capace e forse più reale.

Forse lo sei. Io, per esempio, sono un Crustafariano rinato.

Read more

Local News