Un análisis de la revista Nature y Grounded AI revela que una cantidad significativa de artículos académicos publicados este año contienen citas bibliográficas falsas, generadas por modelos de lenguaje.
Un estudio conjunto de la revista Nature y la empresa Grounded AI estima que más de 100 mil publicaciones científicas de 2025 podrían contener referencias bibliográficas inválidas, muchas de ellas generadas por inteligencia artificial (IA). La investigación analizó cerca de 7 millones de artículos publicados este año y advierte sobre la proliferación de citas fabricadas por modelos de lenguaje.
El fenómeno, conocido como “alucinaciones” de la IA, ocurre cuando los sistemas generan información que parece verosímil pero que no existe en la realidad. En el ámbito académico, esto se traduce en la inclusión de estudios o artículos que nunca fueron publicados, lo que pone en duda la veracidad de la investigación científica.
El análisis se centró en más de 4.000 publicaciones recientes de cinco grandes editoriales internacionales: Elsevier, Sage, Springer Nature, Taylor & Francis y Wiley. A cada trabajo se le asignó una puntuación de riesgo basada en la cantidad de referencias problemáticas y la probabilidad de que estas hubieran sido generadas por IA. Luego, se revisaron manualmente los 100 trabajos más sospechosos y se confirmó que 65 contenían al menos una referencia inválida. En 22 casos, las citas correspondían a trabajos reales, y en 13 no fue posible determinarlo con certeza.
Si esta proporción se extrapola al conjunto de la literatura académica, más de 110.000 publicaciones de 2025 podrían contener referencias inválidas. Los expertos advierten que la cifra real podría ser mayor, ya que el análisis solo evaluó grandes editoriales que poseen mayores recursos de control.
