Cuando Apple lanzó su aplicación de salud para su móvil y su reloj no tuvo en cuenta algo tan básico para una mujer como el ciclo menstrual. Lo recuerda Susana Duran, directora de Innovación de Sage (empresa líder en software de gestión empresarial) y miembro de Women in Mobile, como uno de los ejemplos evidentes de por qué las mujeres han de participar más en el diseño tecnológico no solo de productos sino del futuro para luchar contra la «testosterona digital».

También las minorías étnicas sufren la dictadura del sesgo, interpretaciones hechas por máquinas sobre cómo ha de ser la realidad. Los algoritmos de Google han llegado a confundir caras de personas negras con simios, a asociar nombres habituales en el colectivo con anuncios de abogados criminalistas o a vincular búsquedas sobre mujeres de minorías con pornografía. Y cuando se le pide un bebé, siempre es blanco y si es niña, viste de rosa.

El lenguaje tampoco ayuda. Una lengua cuyo género masculino engloba también el femenino (como el castellano, el valencià y la mayoría de las que derivan del latín), dará más preminencia a los varones, si nadie se molesta en aplicar un correctivo lógico, recuerdan algunos científicos de DeepMind, la división de Inteligencia Artificial de Google.

Varios libros y estudios científicos han vuelto a incidir en los últimos días sobre las preguntas clave de la inteligencia artificial: ¿serán los algoritmos capaces de reflejar la diversidad de las sociedades actuales? ¿Tendrá valores la inteligencia artificial? Y ¿serán nuestros valores?

MANIFIESTOS CIENTÍFICOS // La pregunta se la han hecho no solo los científicos, que ya impulsaron un manifiesto con más de 700 firmantes en el 2015 y la Declaración de Barcelona, entre otros, en favor de una inteligencia artificial que tenga en cuenta a los humanos, sino también desde varios organismos. La Unión Europea está reuniendo a un grupo de expertos para debatir sobre la cuestión, España ya tiene el suyo e incluso el Ayuntamiento de Nueva York ha anunciado una task force para guiar los criterios de los «sistemas de decisión automática», el primero en EEUU.

En el mundo académico se han alzado las voces que piden más pluralidad y transparencia (que se eviten las llamadas cajas oscuras donde nadie sabe qué pasa) y que los algoritmos respondan al bien común. «Los algoritmos son opiniones incrustadas en código», sostiene Cathy O’Neill, matemática y autora del libro Armas de destrucción matemática (Capitán Swing, 2018), un ensayo que plantea cómo los diseños de los programas afectan cada vez más a las vidas de las personas.