VÍDEO: JORNADA DEL ODS 'INTELIGENCIA ARTIFICIAL Y SU IMPACTO SOCIAL', PATROCINADA POR BP Y FACSA

La inteligencia artificial acelera con el desafío de la ética y la legislación

Falta una regulación pero la globalización dificulta el control de esta tecnología, que puede discriminar

Frente al miedo a perder empleos, ahorra tiempo, crea nuevos perfiles y potencia la capacidad humana

La IA puede contribuir a una sociedad con mayor bienestar, sin olvidar la supervisión constante y los futuros 'androides'

Jornada ODS de 'Mediterráneo' en el hotel Intur, patrocinada por bp y Facsa.

Jornada ODS de 'Mediterráneo' en el hotel Intur, patrocinada por bp y Facsa. / Gabriel Utiel

La inteligencia artificial (IA) avanza a pasos agigantados dejando grandes desafíos a su paso, en Castellón y en todo el mundo. Desde el control a través de una regulación ahora inexistente, aunque en Europa se avanza en una normativa; el vacío en cuanto a quién tiene la responsabilidad jurídica de las decisiones que pueda tomar; su impacto en el empleo, como generador de nuevos puestos y destructor de otros; la ciberdelincuencia; o la utopía de un mundo de robots, útiles y éticos, que lleven el peso de la economía productiva mientras los humanos reducen al mínimo su jornada laboral y disfrutan de una renta media, que no básica, de carácter universal.

Estas y otras ideas se expusieron ayer por parte de los cerebros de los expertos participantes en la Mesa de debate sobre Inteligencia artificial y su impacto social, como parte de la jornada patrocinada por bp y Facsa, de Responsabilidad Social Corporativa (RSC) y los Objetivos de Desarrollo Sostenible (ODS). Cuatro expertos, moderados por el director de Mediterráneo, Ángel Báez; dieron sus opiniones en este ámbito: el catedrático de Ética de la UJI, Domingo García Marzá; el director y Chief Strategy Officer de Twelfhundred, Álex Rubio; el CEO de SemanticBoots, Hugo Ferrer; y el consultor de Nexta AI, Daniel Alias.

Aquí puedes ver el foro (VÍDEO):

Legal, ética y robusta

Los ponentes, durante la mesa de reflexión.

Los ponentes, con el director de 'Mediterráneo', durante la mesa de reflexión. / Gabriel Utiel

El catedrático de Ética de la UJI, Domingo García Marzá, concretó que «Europa va en estos momentos más avanzada y está ultimando una regulación de la IA. El estudio de expertos en el que se basa plantea de partida: un test para que las empresas comprueben si están usando con ética la IA; y tres pilares: que la IA sea legal, ética y robusta (segura). Eso daría una confianza». Otra realidad necesaria es preparar a la población: «es importante; debe haber formación en las universidades para que los trabajadores conozcan estas herramientas».

Desde la empresa SemanticBoots, su CEO Hugo Ferrer reflexionó que «cuando se habla de IA la calidad de los datos depurados y trabajados es importante, al igual que saber quién y cómo ha entrenado a esa tecnología. La IA nos hará más productivos pero hay que ver los riesgos y legislar para aplicar un control».

«Somos ciudadanos digitales. Pero es necesario alguien que regule y que nos diga qué datos tienen de nosotros y qué uso hacen. Desde información personal a la biometría, cada vez más frecuente, con más cámaras. La IA puede tener impacto en el empleo y otro problema es que no se ha legislado y no sabemos hacia dónde vamos», prosiguió. «La ciberdelincuencia es preocupante: la IA no es solo Chat GPT, hay programas que clonan la voz, la cara. Ya tenemos casos de mal uso de la IA por menores y los daños morales».

Ángel Báez, director del Periódico Mediterráneo.

Ángel Báez, director del Periódico Mediterráneo. / Gabriel Utiel

Por su parte, el CEO de la agencia de marketing digital y tecnología Twelfhundred, Álex Rubio, indicó que «en Europa sí que se está planteando la regulación de la IA y es llamativo que se aborde. Esto es una diferencia con EEUU». «En el contexto de la privacidad --agregó--, no solo está la IA, sino que actualmente ya existe una importante base de datos de rostros con nuestras fotos en redes sociales. ¿Para qué se usa?».

Desde la consultora Nexta AI, Daniel Alias subrayó que «hasta que se estabilice y se regule la IA no solo Europa sino también fuera de la UE, todavía somos vulnerables en privacidad». Acerca de si se implanta una tasa robot en las empresas que usen la IA, instó a que «no sea un freno ni implique un paso atrás y no realizar un desarrollo tecnológico adecuado». 

Las claves: ley, tasa robot, pensiones,...

  • El uso de la inteligencia artificial en la UE estará regulado por la Ley de Inteligencia Artificial, la primera ley integral sobre IA del mundo, y el objetivo es alcanzar un acuerdo este año.
  • La inteligencia artificial reemplazará el 40% de los trabajos en los próximos 15 años, según asegura Kai-Fu Lee, pionero en el desarrollo de herramientas de IA. ¿Un robot debería pagar impuestos por cada trabajador al que reemplace? ¿cómo se sostiene el sistema de pensiones? Son preguntas que se plantean en una sociedad, donde según apuntan los expertos castellonenses, se avanza muy rápido. Hace apenas un año del nacimiento del ChatGPT y ya han pasado 30 años desde la aparición de la primera web. Implantan la tecnología con control y ver todas sus aristas es un reto para sector público y privado.

Domingo García Marzá Catedrático de Ética (UJI): «Hay decisiones que son de las personas y no debe entrar la IA»

Domingo García Marzá.

Domingo García Marzá. / Gabriel Utiel

El catedrático de Ética de la UJI, Domingo García Marzá, partió de su definición de Inteligencia Artificial (IA): «La IA convierte la realidad en datos. Son sistemas de pensamiento de información, un conjunto de tecnologías que procesa Big Data, bases de datos, conectividad,...». Sobre su impacto en la sociedad, concluyó que «la IA no es neutral y según se configure ese algoritmo puede aplicar un sesgo y discriminar por sexo, raza, etc. Por ejemplo, si se usa la IA por la Administración para decidir a quién concede una subvención; o por la banca para un préstamo». En su opinión, habrá que estar vigilantes al uso que se haga: «La diferencia entre que complemente o sustituya a un humano es grandísima». La responsabilidad y la irrupción de la IA en el empleo constituyó otra de las temáticas abordadas.

Para García Marzá, «no solo las empresas deberían hacerse cargo de sus empleados robots; sería una responsabilidad compartida con la Administración y la sociedad civil». «No obstante --quiso añadir--, en una sociedad donde solo trabajaran robots, el humano no se sentiría útil. Y luego está la vertiente de trabajos en los que las personas no se van a poder sustituir, como aquellos de cuidados, pues no se va a encargar de ello un trozo de hierro». «Hay discusiones sobre el derecho de los robots. Pero para tener derechos, hay que tener obligaciones», indicó, al tiempo que profundizó en que un robot en un estadio muy avanzado con emociones, etc, «ya no sería un robot, sino una persona».

Por ahora, «los coches actuales no pueden considerarse autónomos, como mucho, automáticos. Pues la decisión final --ante una determinada maniobra-- es de la persona». «La incidencia de la IA en la salud es uno de los temas más importantes de futuro. Y en otros terrenos, como la política, le tengo pánico a su impacto. En aquellas decisiones que podemos decidir como personas no debe entrar la IA, si no, nos convertimos en un robot». 

Álex Rubio Director y Chief Strategy Officer (Twelfhundred): «La IA puede crear un mundo feliz donde se trabaje menos»

Álex Rubio (Twelfhundred).

Álex Rubio (Twelfhundred). / Gabriel Utiel

Álex Rubio, director y Chief Strategy Officer de la agencia de marketing digital y tecnología Twelfhundred, tiene muy claro que la inteligencia artificial ha llegado para quedarse: «El mundo va a cambiar. La IA complementa la inteligencia humana y realiza tareas de forma más eficiente que esta. En estos momentos existe un debate social y se están analizando ventajas, inconvenientes y los conflictos que puede presentar». El también profesor universitario, conferenciante internacional y TEDxSpeaker, apuntó: «La IA ha sido entrenada y puede ser sesgada. ¿Pero cómo se combate el sesgo si está en la propia sociedad?». Así, citó ejemplos de dicotomías: «En el campo del Derecho las leyes tiene interpretaciones, plazos de tiempo,... La IA bien empleada puede ayudar a ganar tiempo». «Pero si al Chat GPT le preguntas puede dejarse casos o mostrarte lo primero que ve en internet. La inteligencia humana al final es la que da el sentido», afirmó Rubio.

Acerca de la irrupción de la IA en las distintas profesiones, «con velocidad abrumadora», mencionó que «el Código Deontológico de los Publicistas y Relaciones Públicas ha incluido ya un anexo sobre la IA, pues quien la usa de forma activa ha de ser consciente».

En Medicina, añadió, «la IA complementa, sin sustituir». Y citó el ejemplo del dueño de un animal enfermo, que metió los datos de analítica en un ChatGPT que le orientó de otras posibles dolencias y con ello fue al veterinario». En Marketing, «es capaz de procesar muchísima información y ganar en eficiencia»; y a título individual «democratiza el acceso a la información y mejora facetas». 

Sobre su impacto, lanzó un futurible: «En la antigüedad el hombre trabajaba de 3 a 4 horas al día. Era otra cultura. Igual nos damos cuenta de que no hace falta trabajar tanto. Y si con la IA se logra una renta universal media, no básica, podemos pensar ser felices en un contexto donde el trabajo no sea lo primero». 

Hugo Ferrer CEO (SemanticBoots): «Si solo trabajan las máquinas, ¿quién paga las pensiones

Hugo Ferrer (SemanticBoots).

Hugo Ferrer (SemanticBoots). / Gabriel Utiel

Hugo Ferrer, CEO de SemanticBoots, que ofrece soluciones a empresas y organismos públicos, subrayó que la IA «puede potenciar las capacidades humanas, ayudarte en tu trabajo, pero a sacar una nota de 6 porque para llegar a 10 necesita una persona detrás. La decisión final es del humano». Asimismo, «puede facilitar el acceso a ciertos tipos de trabajo a personas con diversidad funcional. Por ejemplo, pidiendo ejecutar órdenes de viva voz con herramientas de IA».

Con muchas preguntas en el aire acerca del impacto social, lanzó esta reflexión: «China plantea en 2025 generar robots androides en masa. Si sustituimos a todas las personas por máquinas, ¿quién paga las pensiones? Se tendrían que aplicar elementos correctores. Los beneficios que generará la IA pueden ayudar a crear una renta básica universal: las empresas de IA tienen un valor en el mercado, los robots ofrecen un extra de productividad, etc. Sea como fuere, se tendrían que aplicar elementos correctores sobre el valor del trabajo», manifestó Ferrer.

La validez de la IA constituyó otro eje. «Si alguien alimenta la IA con un sesgo negativo, tiene consecuencias. La IA explicativa evalúa por qué se muestran unos resultados y no otros, el método. Eso genera confianza en la sociedad. La Comunitat va por delante, con la ley de Transparencia y Buen Gobierno, que piden auditar procesos, por ejemplo, al conceder una subvención». Para Ferrer, «la supervisión de la IA traerá nuevos perfiles profesionales, como un representante que en la empresa que usa IA defiende el uso de un determinado algoritmo para conceder una ayuda o préstamo, en caso de reclamación, etc.». Abordó la ética de que sea o no la IA la que tome una decisión de vida o muerte (ej. coche autónomo); o la responsabilidad si hay un fallo, si es del robot, del desarrollador, el ejecutor, la empresa o la Administración. 

Daniel Alias Consultor (Nexta AI): «La IA es cultura de cambio: en el trabajo y a nivel personal»

Daniel Alias (Nexta AI).

Daniel Alias (Nexta AI). / Gabriel Utiel

Daniel Alias, consultor de Nexta AI, especialistas en optimizar procesos con inteligencia artificial, reseñó que «aunque son las grandes empresas las que llevan más tiempo aplicando IA, desde nuestra consultora nos estamos centrando ahora en acercar la IA a las pymes y hacerles un traje a medida, ofreciéndola como un servicio para que consigan sus objetivos».

Sobre la práctica, consideró que «la IA se puede aplicar e influir en varios departamentos de una compañía. Nuestro primer cliente ha sido una cooperativa con una plantilla de edad media de 50 años. Su gerente ha visto la gran utilidad del Chat GPT y se han hecho cursos de formación a la plantilla». En su día a día, apuntó que ven «diferentes perfiles: desde el empleado que aprende rápido a quien es reacio porque piensa que su puesto de trabajo peligra y pone barreras a ese aprendizaje». En definitiva, para Alias, «la IA supone una cultura del cambio: en el modo de trabajo conocido hasta ahora y a nivel personal». Y vio crucial «que los empleados de las empresas se formen en IA, que nadie se quede atrás. Su impacto en el empleo genera controversia. Si destruye muchos puestos, es un problema; pero por otro lado puede generar bienestar si les recorta su tiempo de trabajo y se puede implantar una renta universal básica, como dice la Agenda 2030».

El dilema de la privacidad con la IA es otro de los retos. «Es algo que siempre se plantean las empresas que la están aplicando. Utilizamos el modelo Enterprise, con datos cifrados. En el ChatGPT se pueden cargar datos sensibles de clientes, ¿puede venir luego una empresa a reclamar? ¿qué responsabilidad tiene el creador del software, en ocasiones, con sede fuera de la UE? Ocurre igual con redes sociales que utilizamos y vienen reguladas desde EEUU. Apenas un 1% se lee las políticas de privacidad. Todos dan clic para usarlas».