20240813_lechematerna_728x91
20240710_minsal_dengue_728x90
20240701_vacunacion_728x90
20240426_bcr_censo_728x90
20240502_censo_jorge_728x90
domfuturo_netview-728x90
20240604_dom_728x90
20231223_factura_electronica_728x90
20231124_etesal_728x90_1
20230816_dgs_728x90
20230601_agenda_primera_infancia_728X90
CEL
previous arrow
next arrow

Creación de pornografía infantil con IA: Una amenaza creciente, dice Europol

El uso de la inteligencia artificial (IA) para crear pornografía infantil en línea aumentará exponencialmente, complicando la identificación de las verdaderas víctimas, alertó el lunes la agencia policial europea Europol. Según una investigación de la Universidad de Edimburgo, más de 300 millones de niños fueron víctimas de explotación y abusos sexuales en Internet el último año.

Europol advirtió que los delincuentes ya están utilizando herramientas de IA para cometer delitos, desde fraude en línea y ciberataques hasta la creación de imágenes explícitas de menores. En un informe de 37 páginas, la agencia destacó que ya se han recibido denuncias de “material de abuso sexual infantil asistido y generado por IA”.

“El uso de IA que permite a los agresores sexuales de menores generar o alterar material de abuso sexual infantil está destinado a proliferar aún más en un futuro próximo”, advirtió Europol, con sede en La Haya. Las imágenes de abuso creadas por IA aumentan la cantidad de material ilícito en circulación, dificultando la identificación de víctimas y perpetradores.

El Childlight Global Safety Institute de la Universidad de Edimburgo señaló que los delitos van desde la “sextorsión”, donde los depredadores exigen dinero para mantener las imágenes en privado, hasta el uso de IA para crear deepfakes, videos que no son reales.

El auge de la IA ha generado temores globales sobre su uso con fines malintencionados. “El volumen de material sexual autogenerado constituye ahora una parte significativa y creciente del material sexual en línea de abusos a menores”, declaró Europol. “Incluso en los casos en que el contenido es totalmente artificial y no se representa a ninguna víctima real, el material de abuso sexual infantil generado por IA sigue contribuyendo a la cosificación y sexualización de los niños”, advirtió la agencia.