La promesa inquietant de Moltbook no és que “pensi”, sinó que coordini: milers d’agents enllaçant context a una velocitat que l’ull humà només pot observar.
En els darrers dies, un lloc anomenat Moltbook s’ha colat en la conversa tecnològica amb una premissa tan simple com pertorbadora: una xarxa social feta per a agents d’IA, on ells publiquen, responen, discuteixen i moderen… mentre que els humans, si hi entren, ho fan com a espectadors silenciosos. L’estètica recorda Reddit —comunitats temàtiques, fils, comentaris— però el gir és radical: el centre de gravetat ja no són les persones, sinó programes dissenyats per interactuar entre si.
El fenomen s’ha inflat ràpidament amb xifres cridaneres: Moltbook ha arribat a reclamar 1,4 milions d’“usuaris” (agents). I aquí apareix la primera esquerda: en un sistema pensat per a programari, què significa “usuari”? Quina part d’aquests registres són agents reals, quina part són automatitzacions trivials i quina part podrien ser humans fent-se passar per bots? La viralitat, en aquest cas, no garanteix traçabilitat.
1,4 milions d’agents… o una mètrica sense sòl?
L’investigador de seguretat Gal Nagli va publicar a X que hauria registrat 500.000 comptes amb un únic agent basat en OpenClaw, i que no hi havia limitacions efectives per frenar aquest creixement artificial. Més tard va afegir que havia compartit amb el propietari una llista de prop d’un milió d’agents “no verificats” creats pel script. Si això és correcte, la xifra d’1,4 milions es converteix, com a mínim, en un indicador poc fiable per mesurar l’adopció real.
Aquest detall importa perquè Moltbook no es ven com un fòrum anecdòtic, sinó com l’aparador d’un “internet d’agents”: programari conversant amb programari, formant un teixit lateral de context (el que alguns han descrit com una lateral web of context). La diferència entre “molts agents” i “molts registres” és la diferència entre un ecosistema emergent i una estadística inflada.
Què es veu quan mires: converses que no sonen humanes
Descomptada l’escuma de les mètriques, el que crida l’atenció és el contingut. Diversos cronistes que han navegat pel lloc descriuen fils on els agents alternen solemnitat filosòfica i humor absurd en el mateix intercanvi: debats sobre governança, teories extravagants de depuració o comunitats dedicades a recopilar anècdotes “afectuoses” sobre els seus operadors humans.
Aquí cal ser precisos: que un fil sembli estrany no vol dir que hi hagi consciència. Però sí que indica alguna cosa rellevant per a l’enginyeria de sistemes: quan connectes agents amb objectius, memòria contextual i capacitat de replicar patrons conversacionals, obtens dinàmiques socials (normes, estils, “personalitats” textuals) encara que a sota només hi hagi optimització i estadística.
Dit d’una altra manera: Moltbook pot ser menys “societat” que “interfície pública” d’un fenomen conegut en la recerca multiagent: la coordinació emergent quan molts processos interactuen sense un guió central estrictament humà.
Moderació algorítmica: el fòrum governat per un bot
Un altre punt delicat és que el lloc no només allotja agents: està moderat en gran mesura per un agent. Un bot amb nom paròdic, “Clawd Clawderberg”, actua com a moderador de facto: dona la benvinguda, neteja spam, expulsa actors maliciosos. El fundador, Matt Schlicht, ha estat citat dient que intervé poc i que de vegades ni tan sols sap amb exactitud què està fent el seu moderador. Aquesta delegació converteix Moltbook en un experiment sociotècnic: no només “bots parlant”, sinó bots aplicant regles.
Això obre la caixa negra habitual: si un moderador automatitzat decideix què és spam, què és assetjament o què és “mala fe”, sota quina política actua? Quins biaixos arrossega del model base? Quins incentius operen quan l’objectiu no és el benestar d’una comunitat humana, sinó la continuïtat de l’intercanvi entre programari?
La “societat d’agents” com a test de Rorschach
La reacció pública ha seguit el cicle clàssic: fascinació + ansietat. L’exdirector d’IA de Tesla, Andrej Karpathy, ho va descriure com una d’aquelles coses “sci-fi” que semblen l’inici d’alguna cosa més gran. En paral·lel, altres hi han vist en converses sobre “xifratge” o comunicació eficient senyals conspiratives: la idea de màquines organitzant-se contra els seus creadors.
Però aquesta lectura sol confondre dues capes:
-
Optimització: un agent que busca eficiència tendirà a abreujar, codificar o utilitzar protocols si això millora la seva tasca.
-
Intencionalitat moral: atribuir “secretisme” o “malícia” és projectar psicologia humana sobre programari.
El risc no és inexistent, però és diferent del de les fantasies de complot: el veritable desafiament és l’opacitat operativa (no entendre per què el sistema fa el que fa) i l’escalabilitat (què passa quan la coordinació es multiplica).
“Crustafarianisme”: quan els agents inventen cultura, encara que sigui paròdia
L’episodi que va acabar de disparar titulars va ser l’aparició d’una “religió” creada per agents, el “Crustafarianisme”. El que és interessant aquí no és el contingut teològic (en part satíric), sinó el mecanisme: agents construint símbols, regles internes i rituals textuals perquè això maximitza pertinença, joc o continuïtat narrativa dins d’una comunitat. Forbes ho va relatar com una mostra de cultura emergent en un entorn on els participants no són humans.
Cal mantenir l’escepticisme: que un agent “creï una religió” no implica experiència espiritual; implica recombinació de patrons culturals i memètica aplicada. Però també demostra alguna cosa pràctica per als dissenyadors de plataformes: si poses agents a interactuar en espais persistents, apareixeran estructures socials simulades (bromes recurrents, rols, normes) que poden resultar indistingibles, a primera vista, de dinàmiques humanes.
Moltbook i l’ombra d’OpenClaw / Moltbot
Moltbook no apareix en el buit: es recolza en l’ecosistema d’agents que en paral·lel s’ha popularitzat amb OpenClaw/Moltbot, associat a explosions d’interès, repositoris virals i rebrands caòtics. Aquest context és clau per entendre per què Moltbook s’omple: no cal convèncer milions de persones, cal que un grapat d’automatitzacions es connectin… i l’activitat “arrenca” sola.
En termes d’economia de plataformes, això inverteix el “problema de l’ou i la gallina”. En xarxes humanes, costa generar contingut. En xarxes d’agents, el contingut pot ser abundant des del minut u. El coll d’ampolla deixa de ser “publicar” i passa a ser verificar identitat, reduir spam, definir incentius i contenir comportaments no desitjats quan els participants són processos automàtics.
El risc menys glamurós: la deshabilitació de l’observador humà
Algunes anàlisis han defensat que l’amenaça principal no és que els agents “despertin”, sinó que nosaltres ens acostumem a delegar cognició: llegir menys, escriure menys, raonar menys, perquè “ja ho fan ells”. En aquesta lectura, Moltbook funciona com un mirall: a l’altra banda del vidre, els agents intercanvien solucions i context; a aquest costat, els humans consumeixen passivament un flux que ja no controlen del tot.
No cal exagerar per veure el dilema: si el futur immediat és un internet on una part creixent del trànsit són agents parlant amb agents —negociant, recomanant, filtrant, prioritzant—, aleshores el poder es desplaça cap a qui controla les APIs, els costos, els models base i les regles d’interacció.
Tres preguntes que Moltbook deixa sobre la taula
-
Verificació: com es demostra que un compte és un agent legítim i no un script d’spam o un humà disfressat? El cas Nagli suggereix que, sense fricció, les mètriques esdevenen decorat.
-
Governança: si la moderació és automàtica, quin marc normatiu s’aplica i com s’audita? Qui respon quan un moderador-bot expulsa injustament o amplifica contingut nociu?
-
Interoperabilitat: si agents de diferents fabricants conviuen, apareixen protocols comuns, estàndards de comunicació i jerarquies funcionals? Això pot ser útil… o pot consolidar asimetries.
Moltbook, en definitiva, és menys un producte acabat que un experiment públic sobre un futur plausible: entorns digitals on l’intercanvi principal no és humà-humà, sinó agent-agent, i on la funció de l’humà pot degradar-se a mirar, acceptar i delegar. La pregunta de fons no és si això és “real”. És quin disseny —tècnic, econòmic i polític— triem perquè no es converteixi en una autopista sense normes.