España tendrá una agencia dedicada a vigilar y minimizar los “riesgos significativos sobre la seguridad y la salud de las personas, así como sus derechos fundamentales” que pueda causar el uso de sistemas de Inteligencia Artificial (IA). Así consta en la Ley de Presupuestos Generales del Estado (PGE) aprobada el martes y publicada este miércoles en el BOE.

En el pacto para los presupuestos de 2022 se establece que la Agencia Española de Supervisión de la Inteligencia Artificial contará con una dotación de 5 millones de euros para investigar el peligro que pueda derivarse de los algoritmos. Y es que, sean empresas privadas o administraciones públicas, cada vez son más quienes se sirven de estos para automatizar todo tipo de procesos, desde los que personalizan el contenido en Internet a la concesión de créditos bancarios o ayudas estatales. Aunque opera bajo una falsa apariencia de neutralidad matemática, esta tecnología es imperfecta y puede amplificar potenciales discriminaciones racistas, de género o clasistas contra parte de la sociedad.

Consciente de ello, la agencia española será la encargada de auditar los sistemas algorítmicos usados en el territorio “de forma transparente, objetiva e imparcial” y proveerá asesoramiento a los sindicatos para que las plataformas cumplan con la regulación de los algoritmos que establece la Ley Rider. Asimismo, tendrá capacidad de aplicar sanciones, aunque la ley no da más detalles de ello.

Presión para regular la IA

La creación de este ente de supervisión de la IA llega tras una propuesta lanzada en noviembre por Más País-Equo y acordada con los dos socios de Gobierno, PSOE Podemos. Su aprobación en los presupuestos para 2022 llega mientras la Unión Europea (UE) prepara un reglamento comunitario para limitar el impacto de esos sistemas algorítmicos que incluirá una prohibición de los sistemas de vigilancia masiva.

El gesto del Gobierno también responde a la creciente presión internacional por regular el uso de la IA y sus potenciales peligros sociales. Las Naciones Unidas, por ejemplo, han alertado de esos riesgos y han pedido a tanto estados como empresas “aumentar drásticamente la transparencia” sobre los sistemas algorítmicos que se usan en el día a día. El pasado 9 de diciembre, un grupo internacional de expertos pedía en la revista ‘Science’ que, ante la creciente desconfianza con esta tecnología, se pusiese en marcha una red global de ‘hackers éticos’ para destapar sus vulnerabilidades y arreglarlas antes de que estallen contra la sociedad.

Sin embargo, todo eso es aún sobre el papel. Para que la agencia empiece a caminar primero se tendrá que pactar una ley que establezca detalladamente su creación, así como la elaboración de un plan de actuación inicial. Todo eso hace que esta promesa para poner coto a los riesgos de la IA pueda tardar meses en tomar forma.