Los cada vez más populares asistentes digitales que responden con voz de mujer sirven para alimentar los estereotipos sexistas, según un informe de la Unesco hecho público ayer. En el documento, titulado Me sonrojaría si pudiera, investigadores de la institución dependiente de la ONU han determinado que la mayoría de los asistentes digitales han sido diseñados con perfiles femeninos, desde la voz hasta la personalidad, como los casos de Siri, para Apple; Alexa, en Amazon; y Cortana, de Microsoft.

El carácter que se les imprime suele ser sumiso y servil, lo que hasta les hace responder de forma cortés a los insultos, reforzando así los estereotipos sexistas, ha indicado. Como ejemplo, los investigadores de la Unesco mencionan el caso de Siri, que cuando los usuarios la llaman puta contesta con un me sonrojaría si pudiera. «La sumisión de Siri (...), así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género en los productos tecnológicos», afirman los investigadores.

El debate, que no es nuevo, ha sido puesto de relieve en varios foros, como el Mobile World Congress, y ha provocado denuncias sobre los sesgos que se imprimen en la inteligencia artificial. La Unesco llama la atención sobre el impacto cultural que pueden tener Siri y otras compañeras. En estos momentos, representan casi una quinta parte de las búsquedas en internet, señala. Apple, Amazon y Microsoft no han reaccionado aún al informe.