Recientemente, la Internet Watch Foundation (IWF) ha advertido que la aparición de imágenes de abuso sexual infantil (CSAI) generadas por inteligencia artificial (IA) en la red abierta ha alcanzado un "punto crítico". Esta agencia de supervisión de seguridad afirma que en los últimos seis meses ha encontrado más contenido ilegal creado por IA que en todo el año anterior.

Niño en la escuela (1)

Nota de la fuente: Imagen generada por IA, servicio de autorización de imágenes Midjourney

Derek Ray-Hill, director ejecutivo interino de la IWF, afirma que la complejidad de estas imágenes indica que las herramientas de IA utilizadas podrían haberse entrenado con imágenes y videos de víctimas reales. Señala: "La situación de los últimos meses muestra que el problema no está disminuyendo, sino que, de hecho, está empeorando". Los analistas afirman que la situación del contenido generado por IA ha llegado a un "punto crítico", hasta el punto de que las agencias de supervisión de seguridad y las autoridades tienen dificultades para determinar si ciertas imágenes involucran a niños reales que necesitan ayuda.

En los últimos seis meses, la IWF ha actuado sobre 74 denuncias de material de abuso sexual infantil generado por IA, cifra superior a las 70 denuncias de marzo del año pasado. Cabe destacar que este contenido generado por IA se encuentra principalmente en la red públicamente accesible, no en la dark web. La IWF señala que más de la mitad del contenido generado por IA se aloja en servidores de Rusia y Estados Unidos, mientras que Japón y Países Bajos también albergan una cantidad significativa de este material.

Al procesar las denuncias, la IWF ha encontrado algunos casos que involucran videos "deepfake", donde el contenido pornográfico para adultos se altera para parecer abuso sexual infantil. Además, se ha descubierto que algunas herramientas de IA se utilizan para "desnudar" fotos de niños vestidos normalmente encontradas en línea. La organización también afirma que el 80% de las denuncias de imágenes ilegales generadas por IA en sitios públicos como foros o galerías de IA provienen de usuarios comunes.

Mientras tanto, la plataforma de redes sociales Instagram ha anunciado nuevas medidas para abordar el problema de la "sextorsión". La plataforma lanzará una nueva función que difuminará cualquier imagen explícita recibida en mensajes privados y recordará a los usuarios que tengan cuidado al enviar mensajes privados que contengan imágenes explícitas. Esta función está activada de forma predeterminada para las cuentas de adolescentes y permite a los usuarios optar por ver o no las imágenes difuminadas.

Puntos clave:

🔍 En los últimos seis meses, la IWF ha detectado más imágenes de abuso sexual infantil generadas por IA que en todo el año anterior, y el problema está empeorando.

⚖️ La alta complejidad de las imágenes generadas por IA, posiblemente entrenadas con datos de víctimas reales, dificulta su detección por parte de las autoridades.

📱 Instagram lanza una nueva función para difuminar imágenes explícitas y ayudar a los usuarios a protegerse contra la sextorsión.