El mundo necesita una red global de 'hackers éticos' que se encargue de poner a prueba las herramientas de inteligencia artificial y que alerte de los potenciales peligros de estas tecnologías; ya sea con los engranajes que manejan un coche automático o con los algoritmos que, a través de las redes sociales, deciden cuándo y cómo un contenido se convierte en viral. Así lo indica un grupo internacional de expertos en un manifiesto publicado este mismo jueves en la revista ‘Science’. "Necesitamos un equipo de piratas informáticos de guante blanco que ataquen cualquier plataforma nueva y que diseñen estrategias para usarla con fines maliciosos. Solo así podremos saber qué daños potenciales hay detrás de estas herramientas y garantizar la ‘confianza social’ en este tipo de tecnologías", reclaman.

La petición, encabezada por el Centro para el Estudio del Riesgo Existencial (CSER) de la Universidad de Cambridge, reclama un cambio radical de estrategia para hacer frente a la "crisis de confianza" que enfrenta a gobiernos y sociedad con estas tecnologías. Según apuntan los expertos, en los últimos años la ciudadanía ha sido testigo de varios "comportamientos cuestionables que ya están empañando todo el campo" y que, desde ya, están creando una "brecha de confianza" en estas herramientas. "Estamos comenzando a ver una reacción pública contra la tecnología. Este 'latigazo tecnológico' podría abarcarlo todo", advierte el investigador Shahar Avin.

"Necesitamos un equipo de piratas informáticos de guante blanco que ataquen cualquier plataforma y diseñen estrategias para usarla con fines maliciosos"

El manifiesto argumenta que "no es suficiente que la industria se comprometa con unos principios éticos bienintencionados" porque, para garantizar la confianza del público, hay que establecer mecanismos de "escrutinio externo". Por eso mismo, los impulsores de esta iniciativa también presentan una lista actualizada de pautas y recomendaciones para crear una "inteligencia artificial digna de confianza".

Recompensas económicas

Una de las propuestas que plantean los expertos es crear un sistema de "recompensas económicas" para cualquier investigador o hacker que desvele "fallos en las herramientas de inteligencia artificial que puedan comprometer la confianza o la seguridad del público". Es decir, pagar a quien encuentre errores que fomenten, por ejemplo, la discriminación "racial o socioeconómica" en las plataformas de atención médica o búsqueda de trabajo (algo que, como desvelan varias investigaciones, ya está ocurriendo). Empresas como Twitter ya utilizan esta estrategia para "recompensar a quienes encuentren sesgos en sus algoritmos".

"Las empresas se beneficiarían de estos descubrimientos y tendrían tiempo para abordarlos antes de que se revelen públicamente", argumentan los firmantes del artículo publicado en ‘Science’. Avin, por su parte, también explica que en estos momentos gran parte de estas iniciativas "se realizan de forma limitada y ad hoc por parte de académicos y periodistas de investigación" pero que, aun así, hace falta crear un sistema de auditorías más robusto. "Se necesitan auditorías por parte de agencias externas fiables, estándares abiertos sobre cómo documentar este proceso y plataformas dedicadas a compartir estos incidentes", reclama el manifiesto a favor de los háckers éticos.