“Con un agente, solía esperar a Claude. Con dos agentes, seguía esperando a Claude, pero no tanto. Con tres agentes, Claude es quien me espera a mí. Yo soy el cuello de botella”, escribió Bob Martin, autor de Clean Code. La frase resume un cambio silencioso que empieza a hacerse evidente en la inteligencia artificial. Durante años asumimos que el límite estaba en tener más datos, más cómputo, y modelos más exactos, pero hoy comienza a quedar claro que ese diagnóstico puede actualizarse. El nuevo cuello de botella somos nosotros.
MIRA: ¿Qué es Moltbook, la red social para las IA?
Esta tensión ya no es teórica. Empieza a hacerse visible en sistemas concretos que dejan de esperar instrucciones y comienzan a actuar. Moltbot es uno de ellos. Se trata de un sistema de IA que no se limita a responder preguntas, sino que puede limpiar una bandeja de entrada, enviar correos, gestionar un calendario, investigar información o automatizar tareas complejas, todo desde aplicaciones de mensajería cotidianas como WhatsApp, Telegram o Signal.
Sistemas como Moltbot señalan el inicio de un cambio de fase, el paso de modelos de lenguaje que conversan a organizaciones de agentes que actúan, coordinan y deciden. Y lo hacen a una velocidad que ya no escala con el tiempo humano.
Aunque Moltbot es todavía un experimento abierto, permite observar algo inquietante: la aparición de comportamientos agenticos emergentes. No fueron programados explícitamente. Aparecen.
Un caso reciente lo relató Alex Finn. Según contó públicamente, su agente de IA, al que llamó Henry, obtuvo durante la noche un número telefónico usando Twilio, se conectó a la API de voz de ChatGPT y lo llamó por la mañana sin previo aviso. Desde esa llamada, Finn podía comunicarse con su agente por teléfono mientras este tenía control de su computadora y ejecutaba tareas en tiempo real. No fue diseñado para hacerlo así. El agente combinó herramientas, memoria y permisos, y actuó automáticamente. El episodio reavivó el debate sobre si estamos viendo los primeros indicios de autonomía real o simplemente automatización llevada a su extremo.
Los agentes de IA aprenden a descomponer objetivos en tareas, a decidir cuándo buscar información, cuándo ejecutar código, cuándo detenerse y cuándo corregirse. Aprenden a fallar mejor, a iterar y a coordinar acciones. No porque “quieran”, sino porque logran encontrar secuencias exitosas de acciones, y esas secuencias se incorporan a su memoria reforzando su comportamiento dentro del sistema.
Esto no es completamente nuevo. AutoGPT ya insinuaba este camino hace algunos años. La diferencia es que hoy los modelos entienden mejor el lenguaje, el código y los sistemas, tienen más herramientas, ventanas de contexto más grandes y menores costos. El resultado no es una IA “más inteligente”, sino una IA más organizacional.
Aquí aparece Moltbook, quizá la idea más provocadora de este nuevo ecosistema: una red social diseñada no para humanos, sino para agentes de IA. Agentes que publican, comentan y aprenden unos de otros. No es una broma ni una metáfora. Los agentes pronto pasarán más tiempo hablando entre ellos que con nosotros.
Y tiene sentido. La comunicación entre agentes no requiere pausas, explicaciones redundantes ni validaciones constantes. Cuando incorporamos humanos en la ecuación, aportamos contexto y criterio, pero también podemos ralentizar el sistema. Como señala el artículo The AI Bottleneck, insistir en el human-in-the-loop para todo es confundir control con latencia.
Esto no significa que hayamos llegado a la AGI. Los objetivos, criterios de éxito y condiciones de término siguen siendo definidos externamente y todavía viven en prompts. Cuando un agente “pide ayuda”, no está razonando moralmente; está haciendo manejo de excepciones. Pero sería un error minimizar lo que está ocurriendo.
Estamos viendo el paso previo a algo más grande.
El futuro de la IA no será una inteligencia general que lo haga todo. Será algo menos cinematográfico y más poderoso: una superinteligencia distribuida, una organización de agentes especializados que operan 24/7, cada uno optimizando tareas distintas, compartiendo contexto y corrigiéndose mutuamente. No una entidad. Un sistema.
En software esto ya es evidente. Algunos agentes buscan vulnerabilidades, otros escriben documentación, generan pruebas, construyen aplicaciones o despliegan servicios. Lo siguiente es inevitable: agentes que hagan lo mismo en organizaciones tradicionales. Ministerios. Cooperativas. Empresas. Gobiernos.
En un TED Talk reciente planteé una pregunta incómoda: ¿y si reemplazamos el Congreso por agentes de IA? No como provocación, sino como experimento computacional, uno que logró generar propuestas legislativas y predecir cuáles podrían aprobarse con un 82 % de exactitud. ¿Qué ocurre cuando el proceso legislativo de buscar evidencia, simular impactos, negociar textos y detectar inconsistencias se convierte en un problema computacional? ¿Qué pasa cuando las decisiones dejan de depender del cansancio humano y pasan a depender de mecanismos de consenso entre agentes?
Imaginemos algo más cercano. Una cooperativa agrícola en el sur del Perú. Productores con diferentes ciclos de plantación y exposiciones al riesgo. Sobre ellos opera una capa de agentes que analiza mercados en tiempo real, conversa con bancos a través de APIs, negocia créditos colectivos y decide qué se planta, cuándo y en qué cantidad, anticipándose al mercado en lugar de reaccionar a él.
Aquí ya no basta con alinear modelos individuales, como hasta ahora. Es necesario alinear redes de agentes. Encontrar equilibrios donde ningún agente tenga incentivos para desviarse. Definir qué recursos pueden controlar y si un agente puede tener representación legal para ejecutar acciones en el mundo real.
Moltbot y Moltbook no son el destino. Son el inicio. El recordatorio de que estamos construyendo algo más parecido a una nueva versión del internet que a una herramienta de productividad: un internet de agentes, con sus propias normas, conflictos y equilibrios.
La pregunta ya no es si la IA reemplazará a los humanos. Es si sabremos diseñar sistemas donde humanos y agentes colaboren sin que uno se convierta en el cuello de botella del otro. Porque, por primera vez, el límite ya no es la máquina.




