El Periódico Mediterráneo

El Periódico Mediterráneo

Contenido exclusivo para suscriptores digitales

"Usando los robots para trabajos repetitivos podemos reinventar la esclavitud pero en el sentido correcto"

Invitado por la Fundación Ellis Alicante que dirige Nuria Oliver, Baeza-Yates, uno de los científicos informáticos más importantes del mundo, habló en la Universidad sobre la ética en la inteligencia artificial.

El experto en inteligencia artificial Ricardo Baeza-Yates, ayer en el campus de la UA. | ALEX DOMÍNGUEZ

En los últimos años se trabaja en el ámbito de la inteligencia artificial para intentar evitar que los datos perjudiquen a la sociedad en general, cuestión que preocupa a Ricardo Baeza y que ha analizado en la Universidad de Alicante.

¿Cuál es el desafío de la ética de la inteligencia artificial?

Uno de los problemas principales son las aplicaciones que discriminan, que no deberían ser usadas. Todo el tema de sesgos, de raza, de género, pero también la frenología, es decir, inferir personalidad a través de la cara (reconocimiento facial). Hay gente que extrae juicios sobre preferencias sexuales o políticas de una persona usando el rostro de alguien. La inteligencia artificial no entiende lo que está haciendo, a veces hace cosas inesperadas, estupideces. Otro desafío son los sesgos de la interacción de los sistemas con las personas. Un ejemplo es el comercio electrónico, donde se dan sesgos de posición y popularidad que afectan a lo que las personas ven. Si solamente hago clic en lo que me muestran, esas cosas se refuerzan, y las otras no, y se generan mercados injustos para los que venden y compran porque solo ven una parte de las posibilidades.

¿Qué otros problemas plantea el «deep learning»?

Hacemos ensayos de millones de dólares para generar estos sistemas que van sesgados. La pregunta es: ¿deberíamos gastar tanto dinero y tantos recursos en algo que no funciona todo el tiempo? Luego está la privacidad de datos, las noticias falsas...El primer paso es ser consciente de esos problemas. La UE tiene una nueva propuesta para regular la inteligencia artificial con un enfoque basado en riesgos que es complicado. ¿Qué funcionario va a decidir que algo es de alto riesgo o bajo? Es muy ambiguo.

¿Qué aplicaciones quedan fuera de regulación?

Las aplicaciones militares no entran en la regulación y se queda mucho fuera de las aplicaciones policiacas. Son mucho más laxos con aplicaciones de seguridad pública y ahí sabemos que los gobiernos pueden hacer un mal uso. Los derechos humanos no se cumplen todos los días en todos los países. Aparte de eso, las aplicaciones prohibidas tienen que ver sobre todo con videovigilancia en espacios públicos salvo si es por seguridad pública o terrorismo, o cualquiera que manipule a las personas.

¿Se usa mucho la inteligencia artificial para discriminar?

Sí, realmente sin la intención de hacerlo, los datos discriminan porque replican el pasado. Si tomas datos de préstamos seguramente se discriminará a inmigrantes; si son datos de personas seleccionadas para un trabajo seguramente a mujeres...La sociedad tiene sesgos muy fuertes y la inteligencia artificial los replica y amplifica. Si uno hace una tecnología muy rápido, los problemas avanzan igual. La ventaja de los algoritmos es que no tienen la variabilidad de las decisiones humanas. Contestan lo mismo ante la misma situación, son más justos.

¿Hasta qué punto los robots pueden sustituir al hombre?

Los robots no son inteligentes, pero son capaces de hacer muy bien trabajos simples, repetitivos, que necesitan mucha fuerza física, destreza y atención. No se cansan, no necesitan comer ni dormir y no se olvidan de las cosas. Un conductor robot no se va a dormir al volante, nunca va a mirar el móvil conduciendo. En el mundo hay millones de personas que hacen cosas que no les gusta porque tienen que sobrevivir. Si cada persona hiciera lo que le apasiona con un salario universal, aportaría a la sociedad. Los robots pueden permitir eso y posibilitar que todo sea más barato si los utilizamos para tareas repetitivas. Sería reinventar la esclavitud pero en el sentido correcto. Nosotros creamos los esclavos pero no son humanos, así que no son esclavos pero son como esclavos porque hacen lo que no queremos.

¿Existe peligro de un apagón no solo eléctrico sino de internet en el mundo?

Este peligro siempre existe. El problema es mayor en la electricidad porque la infraestructura de internet todavía está en muchos casos infrautilizada aunque con la pandemia la demanda fue mucho mayor que la oferta. La parte troncal, que es la fibra óptica, no se utiliza al 100%. El problema es la última milla, la última conexión, donde si hay un corte de electricidad sí que afecta a todo. Estamos generando mucha infraestructura que es eficiente pero no resiliente, para gastar poco y servir a mucha gente pero con defectos y que puede ser un desastre. Los gobiernos están preparados para este tipo de impacto con sistemas de generadores eléctricos pero el resto de la gente no. En India millones de personas se han quedado sin electricidad durante dos días. No es una amenaza para todo el mundo pero tenemos una infraestructura que no está hecha para cambios drásticos. Si se produjera un apagón, sería un caos pero el mundo se sobrepondría, como pasó con el covid-19, y aprendería a crear estructuras más modernas y resilientes.

¿Empieza a depender en exceso el planeta de la inteligencia artificial?

Sí, muchísimo, y mientras más desarrollado es el país mayor es la dependencia.

Compartir el artículo

stats