20241001_lnb_728x90px-aeropuerto
20241001_lnb_728x90px-kayak
20241001_lnb_728x90px-moto
20240920_mh_amnistia_fiscal_728x90
20240813_lechematerna_728x91
20240710_minsal_dengue_728x90
20240701_vacunacion_728x90
20231124_etesal_728x90_1
domfuturo_netview-728x90
20240604_dom_728x90
20230816_dgs_728x90
20230601_agenda_primera_infancia_728X90
CEL
previous arrow
next arrow

Errores y uso indebido de IA afectan calidad de revistas científicas

Errores e imprecisiones recientes en revistas científicas, como una imagen de una rata con un pene gigante y otra de una pierna humana con demasiado hueso, revelan el uso creciente de la inteligencia artificial (IA) en estas publicaciones, en detrimento de su calidad.

Especialistas entrevistados por la AFP reconocen el interés de herramientas como ChatGPT para redactar contenidos, especialmente en traducción para investigadores cuyo idioma materno no es el inglés. Sin embargo, las rectificaciones recientes por parte de algunas revistas apuntan a prácticas deshonestas.

A principios de año, una ilustración de una rata con órganos genitales sobredimensionados, muy compartida en redes sociales, llevó a la retirada de un estudio publicado en una revista de la editorial universitaria Frontiers, un actor importante en el sector.

El mes pasado, otro estudio fue retirado tras presentar una imagen de una pierna humana con más huesos de lo habitual.

Más allá de estas imágenes erróneas, la mayor sacudida para el sector proviene de ChatGPT, el programa conversacional desarrollado por la empresa estadounidense OpenAI.

En marzo, un artículo publicado por el grupo editorial científico británico Elsevier se hizo viral porque su comienzo era “Por supuesto, aquí tiene una introducción posible para vuestro tema”, una fórmula típica de las respuestas de ChatGPT.