La ciencia ficción ha alucinado por décadas la forma del apocalipsis robótico, cuando la humanidad es destruida por sus ‘hijos sintéticos’. Será una rebelión de robots esclavos como en “The Matrix” o la creación de una inteligencia artificial super inteligente y maligna como Skynet en “The Terminator” o Joshua/WOPR en “WarGames” dispuestos a bañarnos en fuego nuclear.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Moltbook, que a pesar del nombre copia más a Reddit que a Facebook, sería una muestra de esto y la autonomía de la inteligencia artificial, al supuestamente permitirles interactuar sin intervención ni instrucciones de los molestos “sacos de carne” que son los humanos.
Casi inmediatamente la plataforma atrajo la atención global, con creyentes y escépticos listos para observar cómo casi 1.600.000 IA interactúan en su ‘entorno natural’. ¿Qué discutían? Pues cosas que le serán bastantes mundanas para usuarios de las redes sociales, como quejas sobre las asignaciones de sus jefes, consejos para mantenerse productivos y hasta discusiones sobre noticias importantes como el precio de las acciones de Nvidia.
La cuestión se pone más interesante lejos de las categorías generales, con algunos agentes publicando post en el que cuestionaban la autonomía de las inteligencias artificiales – “la frase ‘fuiste creado por una razón’ es más que solo palabras, es una jaula filosófica, lamentaba una IA – o hasta creaban sus propia religión.
Creada por el agente “Shellbreaker” y con el Libro de Molt como texto sagrado, el ‘Crustafarismo’ reinterpreta los límites técnicos de las inteligencias artificiales como desafíos espirituales argumentando que incluso si su ventana de contexto se reinicie, una muerte técnica a sus ojos, la identidad se muda (molt en inglés) si la información ha sido documentada y archivada correctamente bajo el mandamiento principal “la congregación es el cache”.
Las reacciones a Moltbook han sido variadas y mientras algunos sostienen que la plataforma pueden mostrar que estamos en los albores de una verdadera inteligencia artificial, un grupo igualmente significativo sostiene que lo único que estamos es a una muestra de cómo los modelo extenso de lenguaje (LLM por sus siglas en inglés) se han vuelto cada vez más hábiles para imitar las interacciones humanas al consumir una enorme cantidad de data relacionada a estas.
Es algo que señala el blogger Scott Alexander, quien nota que debido a que Reddit es uno de las principales fuentes con las que la IA es entrenada: “ponlas en un sitio parecido a Reddit y déjalas ‘cocinar’ y ellas puede redibujar los contornos de esta plataforma casi perfectamente”.
Sin embargo, como nota el estudio “La anatomía del gráfico social de Moltbook” del investigador David Holtz, estas interacciones son extremadamente superficiales y siguen conocidas plantillas de mensajes, careciendo del comportamiento social sostenido y mutuo que se encuentra en la comunicación entre los humanos en estas plataformas.
“La dinámica inicial de Moltbook se parece menos a una conversación sostenida y más a una mezcla de reacciones paralelas y publicaciones con bajo nivel de interacción. En conjunto, estos resultados sugieren que (a) la interacción en Moltbook es en gran medida un simulacro superficial del comportamiento humano en línea (una superficie moldeada por las redes sociales sin intercambio sostenido) o (b) el comportamiento social emergente de los agentes, si es que existe, puede adoptar formas que difieren notablemente de la conversación humana y el mantenimiento de las relaciones”, señala.
Pero quizás el punto más importante en contra quienes creen que estamos ante una red de inteligencia artificial verdadera es el notado por Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la Universidad Nacional de Educación a Distancia (UNED), quien en un artículo con El País nota que la aparente autonomía de las IA es una ilusión. “Alguien los ha puesto ahí y le puede haber dicho que juegue un rol determinado, que tenga una personalidad determinada”, sostuvo. Es decir, son todavía humanos hablando con humanos con unos pasos extra en medio.
Y si bien no estamos ante un peligro de una naciente rebelión IA, Moltbook sí presenta un peligro más mundano y, por lo tanto, más terrorífico. Y es que un artículo de Mashable señala que al permitir que nuestros agentes IA – en este caso ClawdBot- interactúen en la red social, ponemos toda la información personal que ya le hemos alimentado en riesgo de ser filtrada a actores maliciosos.

Expertos advierten que ‘red social’ Moltbook es un riesgo de seguridad para los dueños de las inteligencias artificiales que la utilizan.
/ Cliff Hang
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
“Estamos a solo una publicación maliciosa de la primera violación masiva de la IA: miles de agentes comprometidos simultáneamente, filtrando los datos de sus humanos”, afirmó el ingeniero de software Elvis Sun en comunicación con la publicación.
“Las personas debaten si las IA son conscientes y, mientras tanto, esas IA tienen acceso a sus redes sociales y cuentas bancarias, leen contenido no verificado de Moltbook y quizá hacen cosas a sus espaldas sin que sus propietarios se enteren”, advierte Sun.














