21.4 C
Buenos Aires
26 noviembre, 2024

Un informe reveló que se usan imágenes de abuso infantil para entrenar herramientas de IA

Más de 3200 fotos explícitas se encontraron en la base de datos de la popular herramienta generativa de Stable Diffusion.

22 de diciembre 2023, 19:13hs

Un informe reveló que se usan imágenes de abuso infantil para entrenar herramientas de IA. (Adobe Stock).

Un informe reveló que se usan imágenes de abuso infantil para entrenar herramientas de IA. (Adobe Stock).

El Observatorio de Internet de la Universidad de Stanford descubrió miles de fotos de abusos sexuales a menores en una popular base de datos de imágenes que se utiliza para entrenar sistemas de inteligencia artificial.

Las más de 3200 fotografías explícitas se encontraron en los sistemas de IA LAION que usaba la herramienta de generación de imágenes Stable Diffusion, entre otras.

Leé también: Las tres mejores fotos hechas con inteligencia artificial que engañaron al mundo en 2023

La investigación de Stanford va en contra de la creencia convencional de que las herramientas de IA crean imágenes de abusos sexuales a menores únicamente fusionando pornografía adulta con fotos de niños. El reporte reveló que es incluso más fácil para algunos sistemas de IA, que fueron entrenados utilizando la base de datos LAION, producir este tipo de contenido ilegal.

Un informe reveló que se usan imágenes de abuso sexual infantil para entrenar herramientas de IA. (Foto: AdobeStock)

Un informe reveló que se usan imágenes de abuso sexual infantil para entrenar herramientas de IA. (Foto: AdobeStock)

“Encontramos que el acceso a la base de datos LAION-5B, poblada incluso hasta finales de 2023, implica la posesión de miles de imágenes ilegales, fotos íntimas y recopiladas de forma no consensuada”, afirmaron David Thiel y Jeffrey Hancock, autores del estudio.

En respuesta al estudio de Stanford, LAION anunció que retiró temporalmente sus bases de datos, y Stability AI -el desarrollador de Stable Diffusion- afirmó que tomó todas las medidas proactivas para mitigar el riesgo de uso indebido y aplicó filtros más estrictos en su herramienta de IA.

Sin embargo, según el informe de Stanford, una versión anterior de Stable Diffusion, la 1.5, sigue siendo el modelo más popular para generar imágenes explícitas.

Leé también: Deepfake: crecen los fraudes con manipulación de imágenes creadas por inteligencia artificial

Por último, el estudio sugiere que los usuarios que hayan creado una herramienta utilizando la base de datos LAION borren o eliminen su trabajo, y anima a mejorar la transparencia en torno a los conjuntos de datos de formación de imágenes: “Los modelos basados en Stable Diffusion 1.5 a los que no se hayan aplicado medidas de seguridad deberían ser obsoletos y su distribución debería cesar siempre que sea posible”

Últimas Noticias
NOTICIAS RELACIONADAS