Lunes 13 de enero de 2025
Errores e imprecisiones recientes en revistas científicas, como una imagen de una rata con un pene gigante y otra de una pierna humana con demasiado hueso, revelan el uso creciente de la inteligencia artificial (IA) en estas publicaciones, en detrimento de su calidad.
Especialistas entrevistados por la AFP reconocen el interés de herramientas como ChatGPT para redactar contenidos, especialmente en traducción para investigadores cuyo idioma materno no es el inglés. Sin embargo, las rectificaciones recientes por parte de algunas revistas apuntan a prácticas deshonestas.
A principios de año, una ilustración de una rata con órganos genitales sobredimensionados, muy compartida en redes sociales, llevó a la retirada de un estudio publicado en una revista de la editorial universitaria Frontiers, un actor importante en el sector.
El mes pasado, otro estudio fue retirado tras presentar una imagen de una pierna humana con más huesos de lo habitual.
Más allá de estas imágenes erróneas, la mayor sacudida para el sector proviene de ChatGPT, el programa conversacional desarrollado por la empresa estadounidense OpenAI.
En marzo, un artículo publicado por el grupo editorial científico británico Elsevier se hizo viral porque su comienzo era “Por supuesto, aquí tiene una introducción posible para vuestro tema”, una fórmula típica de las respuestas de ChatGPT.