La máquina global de la ciencia publicada vive una revolución con la ayuda de la inteligencia artificial (IA), a partir de su provecho como herramienta de reproducción asistida que permite el boom demográfico de artículos científicos y referencias bibliográficas (y muy próximamente, tesis doctorales), la materia que tanto puntúa para empedrar las carreras llamadas a la excelencia. Sin embargo, el natalismo algorítmico no impide replicar un problema, que no es la ciencia youtuber, sino la multiplicación de la ciencia fantasma: autorías, instituciones, investigaciones y referencias que no existen, al menos, en el universo que palpamos.
El juego de apariencias de ChatGPT y demás plataformas basadas en la IA generativa hace que, a primera vista, las referencias sean del todo creíbles. Las rubricas de los artículos pertenecen a personal investigador reputado en diversos campos, y lo mismo sucede con los nombres de las revistas. Hasta los títulos parecen plausibles, y el chatbot no se olvida de crear un breve resumen. Pero todo es una pura ficción: si se realiza una segunda búsqueda, los artículos no existen.
El hallazgo de este atajo reprobable, que transgrede los principios fundamentales de la ética científica sobre integridad y transparencia, preocupa a la comunidad formadora, en especial al profesorado universitario, por los trabajos académicos sin crítica y basados en la pillería de copiar y pegar referencias falsas.
De las posibles consecuencias de la proliferación de las menciones a trabajos de investigación inexistentes, reflexionaban recientemente en una carta a Scientometrics Enrique Orduña y Álvaro Cabezas, profesores de la Universitat Politècnica de València y la Universidad Internacional de La Rioja, bajo el título ChatGPT y el crecimiento potencial de las referencias bibliográficas fantasma.
Aunque los autores advierten que aún se desconoce la magnitud del problema (solo las plataformas de prepublicaciones, revistas depredadoras o espacios de publicación de baja calidad) y es de espera que la herramienta ChatGPT se optimice en breve para proporcionar referencias reales, las revistas y sus comités editoriales deben ser vigilantes para evitar que las referencias falsas contaminen la literatura científica contemporánea.
Como tendencia creciente, las herramientas de IA generativa levantan cada vez más suspicacias por sus numerosas implicaciones, entre ellas, la posibilidad de poder enlistar a las propias plataformas de chatbots como coautoras en los papers. No obstante, la fiebre por la velocidad y la cantidad de publicaciones científicas que acumular para abrillantar el currículum anestesia a no pocos investigadores para las visiones críticas a la hora de adoptar tales posibilidades. No es infrecuente que en este río revuelto algunas voces señalen que lo importante reside en el contenido de la investigación, y no la forma. Así de fácil.
Apenas el chatbot centellea, lo primero que se sacrifica es el método y su plasmación escrita. Vuelvan a la hoguera universal Galileo, Bacon y Descartes. Lo más auténtico entre tanta artificialidad debe de estar en el gozo de la comunidad bibliómetra, almas privilegiadas ellas que conocen el arte de someter las matemáticas y la estadística a la extracción de datos en torno a la literatura científica con la finalidad, suele decirse, de conocer y mejorar el impacto y la visibilidad de la producción científico-académica.
A la mencionada disciplina no sorprende la multiplicación de la falsedad, todo lo contrario. El fraude, y su detección, forma parte de la cadena productiva. A la vez que nacen más herramientas para ayudar a cumplir los expedientes académicos, también surgen métodos para cazar el engaño. No en vano pasó a la posteridad wikipédica la denuncia pública del biólogo John Bohannon, de la Universidad de Harvard, cuyo trabajo falso, sobre las propiedades anticancerígenas de una sustancia química inventada, y en calidad de investigador en el inexistente Wassee Institute of Medicine, envió durante diez meses a más de 300 revistas de open access –accesibles sin suscripción–, y más de la mitad lo aceptaron ignorando sus defectos.
También son memorables las acciones de grupos de investigación como la de los científicos polacos liderados por la psicóloga Katarzyna Pisanski para exponer las perversiones las publicaciones científicas, a partir de crear el perfil de una investigadora ficticia llamada Anna O. Szust, con títulos de investigación falsos y referencias a capítulos de libros académicos inexistentes (incluso con sellos editoriales ficticios). Que el trabajo de Szust no fuera citado ni una sola vez en bases de datos de textos académicos no impidió que fuera nombrada como editora de 48 de las 360 revistas a las que dirigió una carta de solicitud: ocho de ellas pertenecían a la categoría de acceso abierto, y las otras 40 a las revistas depredadoras.
Al género de la ciencia fantasma se ha unido en los últimos años la detección de entidades que producen publicaciones científicas falsas por encargo de estudios que jamás han sido realizados. Así de triste es, en el mundo también hay fábricas de artículos que consiguen colar a revistas de prestifio y que solo sirven para engordar Excels curriculares. Una investigación internacional reciente ha demostrado que el 21,8% de los artículos retirados de revistas científicas en 2021 fueron retractados debido a este tipo de engaño.
Es cierto que hay ventanas abiertas para el optimismo, por ejemplo los beneficios de la IA generativa para mejorar, entre otros aspectos, la comprensión científica, ese segundo ingrediente ineludible de la ciencia junto al hecho mismo del descubrimiento científico. Sin embargo, escasean las oportunidades para el relato positivo cuando se deja de ver, y atajar, el auténtico problema. ¿Y si los artículos publicados en revistas especializadas ya no fueran esas piezas clave que dan sentido a todo el sistema científico? Por mucho índices de impacto, que a nadie se le escape lo fundamental de toda disciplina: las grandes preguntas de la humanidad siguen sin resolverse.