Nerea Luis Mingueza es ingeniera informática, doctora cum laude en Inteligencia Artificial y trabaja en Sngular. También es miembro de la Fundación COTEC para la Innovación y cofundadora de T3chFest, un evento nacional y gratuito sobre informática y nuevas tecnologías. Luis, galardonada por Google en 2016 con el premio Women Techmaker, ha colaborado en el reciente informe de Digital Future Society y titulado ‘Hacia la igualdad de género en el estado de bienestar digital’.

-¿Cuál es el mayor reto al que se enfrenta la Inteligencia Artificial?

-El mayor reto es la Inteligencia Artificial General, que significa que un agente (o robot si tiene cuerpo físico) es capaz de desenvolverse perfectamente en cualquier ambiente, contexto o situación. Y sería capaz de aprender cualquier tipo de habilidad y por supuesto de razonar, que es algo muy complejo. Aún falta para llegar a esto.

-¿Estamos preparados como sociedad para utilizar y entender sus múltiples aplicaciones?

-Hay sistemas basados en inteligencia artificial que ya utilizamos habitualmente, lo que pasa que a veces no somos conscientes. El teclado predictivo del teléfono, el sistema de recomendación de Amazon, las sugerencias de amistad o seguimiento de redes sociales… todo ello lleva por debajo inteligencia artificial. Hoy en día, aún se ha hecho poca divulgación sobre inteligencia artificial, pero sí que se ha hablado bastante de la misma en prensa.

Muchas de esas veces de forma negativa. Esto genera escepticismo, incertidumbre y temor ante el desconocimiento del propio campo. Las personas que nos dedicamos a trabajar en este tipo de algoritmos y que nos apasiona la comunicación deberíamos tender puentes y dar un paso adelante para que la gente entienda también el lado bueno. La inteligencia artificial bien aplicada (o aplicada para el bien, AI for good) puede potenciar muchísimo el crecimiento de prácticamente cualquier área de conocimiento.

-¿Puede promover la igualdad de género?

-La inteligencia artificial por sí sola no va a promover ningún tipo de valor. Los sistemas ‘inteligentes’ aprenden y replican a partir de lo que perciben o reciben como datos de entrada. Es nuestra labor preocuparnos de que esos datos sean lo más objetivos, diversos y representativos posible de una realidad justa, por ejemplo, que no sean ofensivos. Después habrá que analizar si el sistema inteligente de verdad está comportándose de forma justa, aparte de ‘aparentemente correcta’. En el campo de la IA se habla mucho de fairness vs accuracy (justicia vs. exactitud).

-¿Cómo se combate un deepfake? ¿Sólo con tecnología o también hay que hacer pedagogía?

-No sé si la palabra adecuada es combatir. Yo creo que en ‘la era incipiente de los deepfakes’ tenemos que estar siempre alerta y desarrollar cada vez más un pensamiento crítico que ayude a cuestionarnos la certeza de lo que estamos viendo. Más allá de esto, hay formas de identificar a nivel técnico que nos encontramos ante un deepfake como por ejemplo fijarnos en los detalles del fondo, del pelo, los reflejos de los cristales de las gafas...

-¿Qué papel juega la ética en todo esto?

-La ética es el campo de estudio que nos permite reflexionar desde el punto de vista de la moral y el comportamiento cómo se comportan los sistemas, en este caso, inteligentes o basados en inteligencia artificial. Es nuestra responsabilidad hacer este ejercicio en cada desarrollo que hagamos para evaluar la robustez de nuestros sistemas en todos los aspectos, no sólo aquellos que buscan optimizar un valor o reducir tiempo de cómputo. La ética nos va a ayudar a perfilar cómo será la convivencia de los sistemas inteligentes con los humanos y cómo podemos complementarnos.