El número de imágenes y movies de agresiones sexuales a niños generadas por inteligencia synthetic (IA) aumenta de forma «escalofriante» en net, advirtió el viernes una organización británica encargada de detectar y eliminar estos contenidos.
Esta nota es exclusiva para suscriptores.
Accedé ahora y sin límites a toda la información.
Muchas de estas fotografías o movies que muestran a menores «siendo atacados y maltratados son tan realistas que es casi imposible distinguirlos de imágenes de niños de verdad«, subraya en un comunicado la Fundación de Vigilancia de Net (Net Watch Foundation, IWF), una de las principales asociaciones del sector en Europa.
La IWF, que había recibido 70 denuncias entre abril de 2023 y marzo de 2024, ya contabilizó 74 en el espacio de seis meses, entre abril y finales de septiembre de este año.
Casi todas estas imágenes se encontraban en sitios abiertos, de fácil acceso para el gran público, principalmente de Rusia (36%), Estados Unidos (22%) y Japón (11%).
Más de las tres cuartas partes de esas denuncias fueron hechas directamente a la asociación por internautas, tras haber visto las imágenes en «foros o galerías de fotos o movies de IA».
Según un analista de la organización, que prefirió guardar el anonimato por motivos de seguridad, el aumento de estas denuncias es «escalofriante» y da la impresión de que hemos llegado a un punto crítico, con el riesgo de que organizaciones como la nuestra y la policía se vean abrumadas por cientos de nuevas imágenes, sin saber si un niño de verdad necesita ayuda en alguna parte.
«Para alcanzar el nivel de sofisticación observado, el utility utilizado tuvo que aprender de imágenes y movies reales de agresiones sexuales a menores compartidos en net», explica Derek Ray-Hill, director well-liked interino de la IWF, citado en el comunicado.
Para hacer frente a esto, Ray-Hill insta a los parlamentarios británicos a adaptar las leyes existentes «a la generation digital» y a sus herramientas en constante avance.
AFP

