Más de 111.000 de las aproximadamente 7 millones de publicaciones científicas de 2025 podrían contener referencias bibliográficas inválidas, muchas de ellas generadas por las alucinaciones de la inteligencia artificial. La cifra se desprende de un reciente análisis realizado por la revista Nature en cooperación con Grounded AI, una compañía que desarrolla herramientas para detectar este tipo de incidencias.
Si bien los errores en las citas bibliográficas no son un fenómeno nuevo en las publicaciones académicas, antes se debían principalmente a fallos como errores ortográficos en los nombres de los autores o imprecisiones en el año de publicación, el título de la revista o el DOI —el identificador único asignado por editoriales y repositorios de preprints—. Sin embargo, ahora el problema no es solo la inexactitud, sino la aparición de citas falsas: referencias fabricadas por herramientas de IA.
MIRA: Trump destituye al Consejo Nacional de Ciencias de EE.UU., que alistaba un informe sobre la creciente superioridad científica de China
Estas referencias surgen a partir de las llamadas “alucinaciones”, un fenómeno en el que los modelos de lenguaje (LMM) generan información plausible pero inexistente, como estudios o artículos que nunca fueron publicados.
Las editoriales consultadas por Nature señalaron que están observando un aumento en el número de citas fabricadas e inexactas en los manuscritos y que ya están tomando medidas para abordar el problema. Alison Johnston, coeditora principal de la revista Review of International Political Economy (RIPE), publicada por Taylor & Francis, indicó que rechazó el 25% de unas 100 propuestas en enero “debido a referencias falsas”.
Nature y Grounded AI analizaron más de 4.000 publicaciones del último año, abarcando cinco grandes editoriales: Elsevier, Sage, Springer Nature, Taylor & Francis y Wiley.
Tras el análisis, se asignó una puntuación de riesgo a cada publicación en función de la cantidad de referencias con errores graves y la probabilidad de que estos hubieran sido generados por IA.
Finalmente, se revisó manualmente los 100 trabajos más sospechosos y se confirmó que 65 contenían al menos una referencia inválida, es decir, que apuntaba a una publicación inexistente. En 22 casos, las citas sí correspondían a trabajos reales, y en 13 no fue posible determinarlo con certeza. Estos últimos incluían referencias a revistas regionales en otros idiomas o con discrepancias que podrían deberse a errores humanos.
Como estimación general, si esta proporción se extrapola al conjunto de la literatura académica, más de 110.000 publicaciones de 2025 podrían contener referencias inválidas.
Nick Morley, cofundador de Grounded AI, sostiene que los errores detectados en 2025 difieren de los observados antes de la proliferación de los modelos de lenguaje, lo que apunta a la IA como principal responsable.
No obstante, los expertos advierten que la cifra real podría ser mayor, ya que el análisis se centró en grandes editoriales con mayores recursos de control.













