IA y Controversia: Imágenes de Abuso Infantil Utilizadas en Entrenamiento de Sistemas de Inteligencia Artificial

En una reciente investigación llevada a cabo por el Observatorio de Internet de Stanford, se ha descubierto un perturbador uso de miles de imágenes de abuso sexual infantil en bases de datos empleadas para el entrenamiento de populares generadores de imágenes con inteligencia artificial (IA).

Tecnología22/12/2023Ahora NoticiasAhora Noticias
dsfawf

En una reciente investigación llevada a cabo por el Observatorio de Internet de Stanford, se ha descubierto un perturbador uso de miles de imágenes de abuso sexual infantil en bases de datos empleadas para el entrenamiento de populares generadores de imágenes con inteligencia artificial (IA), incluyendo Stable Diffusion. Este revelador hallazgo plantea serias preocupaciones sobre la ética en el desarrollo de sistemas de IA y su impacto en la privacidad y seguridad de los individuos.

La base de datos en cuestión, denominada LAION-5B, albergaba 3.226 imágenes de presuntos abusos sexuales infantiles, según el informe del Observatorio. La utilización de este material para el entrenamiento de modelos de IA ha permitido la generación de imágenes realistas y explícitas, utilizando la apariencia de niños y niñas ficticios. Además, se encontró que estos sistemas también recurrieron a la manipulación de fotos de cuentas de redes sociales de adolescentes reales, provocando alarmas en instituciones educativas y departamentos de policía en diversos países.

Ante la repercusión de la investigación, LAION anunció la retirada temporal de sus conjuntos de datos con el objetivo de garantizar su seguridad antes de cualquier republicación. En cuanto a Stable Diffusion, aunque la versión más reciente (2.0) ha implementado medidas para dificultar la creación de contenido perjudicial, la versión anterior (Stable Diffusion 1.5) sigue siendo identificada como el modelo más popular para generar contenido explícito, según los investigadores.

Los expertos abogan por la eliminación de los conjuntos de entrenamiento derivados de LAION-5B y exhortan a aquellos que trabajan con IA basada en Stable Diffusion 1.5 a considerarlos obsoletos y cesar su producción. Este hallazgo destaca la urgencia de establecer normas éticas más estrictas en el desarrollo de tecnologías de IA, así como la necesidad de una supervisión rigurosa para prevenir el uso indebido de material sensible en la formación de estos sistemas avanzados.
 
 
 

Te puede interesar
Lo más visto

Suscríbete al newsletter para recibir periódicamente las novedades en tu email