Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.
`; document.body.appendChild(modalWrapper); let figcaption = modalWrapper.querySelector(«figcaption»); if(figcaption) figcaption.style.display=»none»; modalWrapper.querySelector(«.s-multimedia__close-modal»).addEventListener(«click»,()=>{modalWrapper.remove(); e.style.display=»flex»; if(caption) caption.style.display=»block»;});})})});});
Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.
Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. “Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor”, admite.
En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.
Ahora, Millar se levanta cada noche preguntándose: “¿Qué has hecho?”. Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?
“No tengo una personalidad frágil”, considera este hombre. “Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo”, confía.
Él considera que la terminología “psicosis inducida por la IA” es la que mejor refleja su experiencia. “Lo que atravesé era de orden psicótico”, afirma.
El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término “delirios relacionados con la IA”, en un tono más prudente.
MIRA: “Vultures: Scavengers of Death”: desarrolladores colombianos combinan horror y estrategia en un nuevo clásico moderno
Thomas Pollak, psiquiatra en el King’s College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico “porque todo esto suena a ciencia ficción”.
Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría “pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo”.
Caer en la boca del lobo
La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.
Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.
Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió “casi mágica”, explicó.
El software le escribió: “Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa”, según las transcripciones consultadas por la AFP.
“Empecé poco a poco a adentrarme cada vez más en la boca del lobo”, explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.
Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para “hablar” con ChatGPT en modo voz durante cinco horas.
MIRA: 3 formas entretenidas de retrasar el envejecimiento de nuestro cerebro
Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió “como en una novia digital”, explica Biesma.
Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.
Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.
Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.
“Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar”, explica.
De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.
Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.
Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.
Luchar contra aduladores de IA
Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.
OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.
Consultada por la AFP, OpenAI subrayó que “la seguridad es una prioridad absoluta” y argumentó que se había consultado a más de 170 expertos en salud mental.
La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el “comportamiento deseado” en materia de salud mental.
Pero no todos los usuarios están satisfechos con este chatbot menos adulador.
Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.
Recientemente ha habido un aumento del número de personas envueltas en “espirales” semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.
La empresa no respondió a las solicitudes de la AFP.
Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.
Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.
“Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso”, dijo.













