Los chatbots generados por inteligencia artificial (IA) han experimentado una auténtica revolución entre la población general en el último año, con ChatGPT como su máximo exponente. Centenares de millones de personas alrededor del mundo usan, con más o menos frecuencia, estas tecnologías para diversos fines como resolver dudas o como complemento en el trabajo para redactar textos o para programar. Sin embargo, esta herramienta, que usa el procesamiento del lenguaje natural para generar textos equivalentes a los escritos por los humanos, puede ser tan convincente a la hora de dar información cierta como cuando arroja otra que es totalmente falsa.
Un equipo de investigadores de la Universidad Carolina de Praga ha puesto a prueba la capacidad de ChatGPT, desarrollado por la empresa OpenAI, para crear un artículo médico falso, desde cero. Los resultados de su experimento, que se han publicado en la revista Journal of Medical Internet Research, son preocupantes. En tan solo una hora y sin ninguna formación previa del usuario, esta tecnología generó un artículo científico sobre neurocirugía que parecía verídico para los no expertos en la materia. Los autores crearon el documento mediante una serie de preguntas e indicaciones a la IA para ir mejorando progresivamente la calidad de sus respuestas. Posteriormente, expertos en el campo de la neurocirugía, de la psiquiatría y de la estadística evaluaron el artículo falso comparándolo con artículos reales similares.
En apariencia, el artículo científico generado por ChatGPT es idéntico a uno convencional. Reúne los diferentes apartados propios de estos documentos (resumen, introducción, métodos, resultados y discusión), muestra datos y tablas y utiliza las palabras apropiadas con una estructura coherente y lógica. No obstante, las personas expertas podían detectar múltiples errores como imprecisiones en el uso de ciertas palabras o en la redacción de referencias científicas: algunas presentaban detalles incorrectos, mientras que otras directamente eran inventadas. En cualquier caso, el profesor de neurocirugía encargado de evaluarlo explica que «en general, el artículo generado mostró un gran nivel de competencia técnica y autenticidad».
La creación de artículos científicos falsos no es un problema nuevo. En el mundo académico existe una gran presión para que los investigadores sean prolíficos a la hora de publicar si desean avanzar profesionalmente o incluso sobrevivir, un fenómeno conocido en el mundillo como «Publica o muere». Esto lleva a que algunos científicos, escasos de ética, publiquen a toda costa, aunque sea mediante artículos falsos. La demanda de artículos inventados ha llegado a tal nivel que existen empresas, conocidas como «fábricas de artículos», que se encargan de generar artículos falsos por encargo de científicos para así inflar su curriculum y progresar en su carrera. Se estima que casi el 22 % de los artículos retirados de revistas científicas en 2021 fueron por este tipo de engaño.
Las revistas depredadoras añaden más leña al fuego del fraude científico. Estas publicaciones basan su modelo de negocio en cobrar por publicar artículos, pero sin contar con los procesos adecuados de revisión por pares que caracterizan a las revistas científicas. El resultado es que resulta muy fácil colar artículos inventados o de muy poca calidad en este tipo de revistas. Se estima que existen unas 8.000 revistas depredadoras que, en su conjunto, publican cada año 420.000 papers con escasa o nula garantía de calidad. , lo que supone el 20 % de la publicación científica anual mundial, que gira en torno a los 2,5 millones de artículos.
La irrupción de la IA como generadora de artículos falsos, en medio de este panorama, complica aún más la situación porque facilita en gran medida todo el proceso de fraude para las personas sin escrúpulos. Además, dada la capacidad que tiene esta tecnología de perfeccionarse a sí misma, es posible que en un futuro próximo la redacción automática de artículos inventados y creíbles sea una cuestión de minutos sin apenas esfuerzo por parte de una persona. Quizás, la IA podría llegar a un nivel de refinamiento que hiciera difícil incluso para los expertos en la materia distinguir los artículos científicos reales de los falsos.
La tentación de usar la IA para tomar el camino fácil y progresar en el mundo académico puede ser demasiado poderosa para algunos científicos. Por esta razón, los autores sostienen que se necesita mayor vigilancia y mejores métodos de detección para luchar contra la IA en la investigación científica. No obstante, esta herramienta puede aportar valor, al ayudar en la preparación del manuscrito, el análisis de los resultados y la edición del texto de un artículo científico genuino.
En el estudio se recalca la importancia de desarrollar e implantar guías éticas y de buenas prácticas para el uso de esta herramienta en la investigación y en la escritura científica. Por otro lado, obligar a los investigadores a ser transparentes en cuanto al uso de la IA (para que declaren cuánto de su texto se ha generado por esta tecnología) podría echar para atrás a aquellos que contemplen utilizarla para inventarse parcial o totalmente un artículo científico.
Sea como sea, la IA ha llegado para quedarse. Al igual que un cuchillo, esta herramienta se puede usar tanto para el bien como para el mal. Será necesario detectar, desincentivar y castigar a aquellos que tengan la tentación de usar la IA con malos propósitos para evitar que el fraude en la ciencia se convierta en un problema mucho mayor en un futuro próximo.
Sobre la autora: Esther Samper (Shora) es médica, doctora en Ingeniería Tisular Cardiovascular y divulgadora científica