IA generativas son entrenadas con contenido explícito de abuso infantil, revela investigación

IA generativas son entrenadas con contenido explícito de abuso infantil, revela investigación

Foto: Freepik

El Observatorio de Internet de Stanford reveló que descubrieron imágenes de abuso sexual infantil en una vasta base de datos utilizada para entrenar algunos generadores de imágenes con inteligencia artificial (IA), incluyendo Stable Diffusion.

 

Contrario a la creencia de que las herramientas de IA generativa combinaban pornografía de adultos con imágenes de niños obtenidas en la red, el Observatorio identificó 3,226 imágenes de presuntos abusos sexuales infantiles en la base de datos de IA LAION-5B. Gracias a la colaboración de organizaciones contra el abuso infantil, se confirmó que este material gráfico representaba de manera explícita a menores.

 

En respuesta al informe, LAION emitió un comunicado, anunciando la retirada temporal de sus conjuntos de datos "para garantizar que sean seguros antes de volver a publicarlos".

 

En cuanto a Stable Diffusion, la versión más reciente (2.0), implementó medidas para dificultar la creación de contenido perjudicial. Sin embargo, la versión 1.5 es “el modelo más popular para generar contenido explícito”, según el estudio.

 

Los investigadores instaron a una solución inmediata, sugiriendo que aquellos que posean conjuntos de entrenamiento derivados de LAION-5B los eliminen o trabajen con intermediarios para purificar el contenido. Además, se hizo un llamado para considerar obsoletos y cesar la producción de modelos basados en Stable Diffusion 1.5.

Notas Relacionadas