Tareas tan sencillas para el ojo humano como reconocer un número invertido, diferenciar ágilmente un perro de un gato o identificar entre miles de imágenes solo las de niños de carne y hueso son desafíos complejos para las máquinas pero se está avanzando mucho tecnológicamente para superarlos.

A un ordenador hay que explicarle todos los datos del problema de reconocimiento de imágenes en un idioma de bits y algoritmos para que los comprenda y de forma algo torpe, explica Enrique Solano, director del grupo de Tecnologías Cuánticas para las Ciencias de la Información de la Universidad del País Vasco.

Esa particularidad complica mucho a las máquinas el procedimiento de identificación de contenidos, que se han disparado en el mundo digital, ha añadido este experto, cuyo equipo ha participado en un experimento pionero para digitalizar de forma universal la computación cuántica analógica en un “chip” superconductor, un reto logrado en colaboración con los laboratorios de Google de computación cuántica, y que se ha publicado recientemente en la revista Nature.

Hasta el momento, explica este doctor en física, los sistemas de inteligencia “artificial” para reconocimiento de imágenes no ofrecen resultados absolutamente fiables aunque las tecnologías son cada vez más sofisticadas.

En los últimos cinco años, con el desarrollo del llamado deep learning que permite a las máquinas aprender por sí mismas de sus propios errores, se ha avanzado mucho, precisa por su parte la experta Nuria Oliver. H