Explotación a menores
Aplicaciones de inteligencia artificial como Stable Difussion se han entrenado con imágenes de abuso sexual infantil
Los autores del informe denuncian haber localizado al menos 1.008 imágenes de explotación infantil en LAION-5B, una popular librería de datos de código abierto con la que distintas empresas entrenan sus modelos de IA
![Aplicaciones de inteligencia artificial como Stable Difussion se han entrenado con imágenes de abuso sexual infantil.](https://estaticos-cdn.prensaiberica.es/clip/1a91bb44-7301-470b-99c5-b8ba130824c7_16-9-discover-aspect-ratio_default_1252011.jpg)
Aplicaciones de inteligencia artificial como Stable Difussion se han entrenado con imágenes de abuso sexual infantil. / Archivo
Carles Planas Bou
Populares aplicaciones de inteligencia artificial (IA) como el generador de imágenes Stable Diffusion se han entrenado con una base de datos plagada de contenidos de abuso sexual a menores. Así lo destapó el miércoles una investigación del Observatorio de Internet de la Universidad de Stanford.
Los autores del informe denuncian haber localizado al menos 1.008 imágenes de explotación infantil en LAION-5B, una popular librería de datos de código abierto con la que distintas empresas entrenan sus modelos de IA. Ese material extremo habría sido extraído tanto de redes sociales como de páginas web pornográficas.
LAION es una organización sin ánimo de lucro que gestiona esas bases con miles de millones de datos de internet. Tras ser alertada, explicó a Bloomberg que retirará temporalmente los datos que pone a disposición de las compañías. Los desarrolladores de Imagen, una herramienta de IA de Google, también detectaron que otra de las librerías a la que accedían incluía "una amplia gama de contenidos inapropiados, como imágenes pornográficas, insultos racistas y estereotipos sociales nocivos".
Agilizar el contenido pedófilo
Los expertos apuntan a que la presencia de contenido pedófilo en esta base de datos puede dotar a los generadores de imágenes que lo utilizan de mejores capacidades para crear falsos contenidos que recreen de forma realista situaciones de la mal llamada pornografía infantil.
"Dan al modelo una ventaja para poder producir contenidos de explotación infantil de una forma que podría parecerse a la explotación infantil en la vida real", afirma David Thiel, autor del informe y tecnólogo jefe del Observatorio de Internet de Stanford. Además, corre el riesgo de revictimizar a víctimas concretas.
Esa posibilidad despierta la preocupación de los expertos. Otro informe publicado en julio por la universidad californiana junto a la organización Thorn documentó que la mejora de los programas de IA agilizaba la creación de imágenes sintéticas pero verosímiles que "facilitan" la explotación sexual de los menores de edad.
- Esta es la canción que hace más feliz a las personas según la ciencia
- Si hiciste el servicio militar puedes solicitar la jubilación en 2024
- El macho de elefante de Bioparc València presenta "excelente adaptación" y se han generado las primeras cópulas
- La hija de Paz Padilla, atacada por el parásito que ha hecho saltar las alarmas en España: 'No podía ser nada bueno
- Habla la empresa que contrató a la médica 'borracha' en Castellón y estudia llevarla a juicio: 'Estamos muy avergonzados y es imperdonable
- Entrevista al ganadero de Fuente Ymbro, hierro del espectacular ejemplar de Satine para las fiestas de Burriana: 'Es el toro que uno sueña tener
- Nicki Nicole deja al público de su concierto boquiabierto al aparecer con la camiseta de este mítico equipo de fútbol español
- La nueva norma para los ascensores en la Comunitat Valenciana: las mejoras van desde los 1.000 euros hasta los 60.000