Bolsa, mercados y cotizaciones

José Esteban (Atos): "Ahora, parece inteligencia artificial un algoritmo o un asistente virtual, pero en diez años eso cambiará"

  • "Si le das datos sesgados a la máquina, se comportará mal", señala el experto
  • "Europa puede afianzarse como líder en el uso de la IA en datos industriales"
José Esteban, director de Innovación de Atos en España. Foto: Atos.
Madridicon-related

Hace veinte años que José Esteban Lauzán, director de Innovación de Atos Iberia para España y Portugal, se incorporó a la compañía francesa como ingeniero jefe y responsable del equipo de investigación y desarrollo. En esta conversación con elEconomista, despliega su amplio conocimiento de las nuevas herramientas y soluciones que transformarán el funcionamiento de las empresas, al tiempo que subraya la importancia de entrenar a las máquinas con los datos adecuados. El experto trata de explicar en esta entrevista el origen del miedo social a la inteligencia artificial y confía en la estrategia europea para liderar el uso de la IA en la industria del continente.

¿Qué tipo de soluciones ofrece Atos para los clientes que hacen uso de la inteligencia artificial?

Están las menos visibles, como automatizar procesos. Por ejemplo, en empresas muy grandes que a menudo son el resultado de fusiones o adquisiciones, muchas veces los sistemas que usa la empresa son los que usaban las empresas con las que se ha ido fusionando con el tiempo.

Muchas veces usamos la IA para analizar los blogs o las bitácoras internos que te dicen cómo van funcionando esos sistemas internamente, para identificar cuellos de botella o puntos en los que la cadena de procesos se hace ineficiente y poder solucionar esos temas.

Después están los procesos donde intervienen personas: muchas veces no nos damos cuenta, pero estamos dedicando personas a tareas muy repetitivas.

Por ejemplo, tenemos expertos muy buenos en un cierto tema, como en fraude. Nos hemos encontrado situaciones en las que un cliente tenía expertos que dedicaban parte de su tiempo a analizar informes donde se denuncian posibles casos de fraude.

Estas personas tienen que analizar el informe, decidir si es un caso de fraude o no, de qué tipo de fraude se trata y a qué departamento deberían redirigir ese informe para lanzar la investigación. Pues bien, es una tarea muy repetitiva y un tiempo que esa persona no está dedicando a investigar el caso.

Para resolverlo, hemos hecho sistemas que permiten que un algoritmo, que una máquina, vayan procesando los informes, decidan de qué tema y de qué clase de fraude se trata, y decidan a qué departamento hay que dirigir ese caso.

¿Cómo es esto de entrenar máquinas?

Hay veces que los clientes quieren que probemos algún mecanismo de inteligencia artificial y puede tener mucho sentido, pero no tienen los datos suficientes para entrenarlos; y es fundamental, que el cliente haya almacenado datos para poder entrenar al sistema.

Tenemos la capacidad de entrenar al sistema con los datos de cada cliente, lo mismo que para fraude, para documentos o mails o mensajes que te escriban tus clientes, diciéndote lo bien o lo mal que lo han pasado en tu hotel o lo mucho o poco que les ha gustado tu vino. Para nosotros, es lo mismo entrenar al sistema con esa información y que el sistema decida.

¿Qué otras aplicaciones tiene la inteligencia artificial?

Trabajamos mucho en visión artificial, que son todos los algoritmos que permiten que una máquina vea de una manera no similar a un humano pero que pueda distinguir objetos en imágenes.

Trabajamos, por ejemplo, por temas de seguridad, en reconocimiento facial. Fuera de la seguridad, es posible analizar los gestos de una persona, saber cómo se encuentra y si está tensa o relajada.

También, si estás haciendo un examen o una entrevista a una persona -algo que hacíamos antes del Covid en remoto, pero ahora mucho más-. Si entrevistas a alguien por vídeo -que se ve un poco regular, a veces, que no es lo mismo que tener a la persona cara a cara-, puedes tener un sistema que te diga si la persona está relajada o no, si está prestando atención o no, si te está mirando o no, por si estás haciendo exámenes en remoto, por ejemplo. 

¿Se ha avanzado tanto como para reconocer una emoción o el rostro de alguien sin errores?

A ver, no hay nada que sea perfecto. Los humanos tampoco somos perfectos haciendo eso, pero lo hacemos muy bien. Siempre que trabajas en inteligencia artificial tomas el éxito con el que lo hace un humano como la referencia. 

Problemas como reconocer caras o reconocer objetos, ver una foto y decir aquí hay una mesa o tres libros, eso hace ya unos años que lo hace mejor una máquina que un humano; pero no lo hace perfecto. A lo mejor, un humano acierta el 97% de las veces y la máquina, el 98,5%. Aun así, va a haber un 1,5% en el que se equivoca la máquina, porque no existe la perfección.

Lo que hacemos en nuestros sistemas es entrenar los algoritmos para que tengan un grado de acierto muy alto, igual o mejor que un humano, si es posible, pero la otra parte importante es implementar mecanismos para que no haya un desastre las veces que el algoritmo se equivoque.

¿Qué tipo de clientes demanda estos servicios?

Está teniendo mucho tirón ultimamente, pero es posible reconocer cualquier cosa. Puedes reconocer que hay una persona en un sitio donde no debería estar o que hay actividad en una casa que creías que estaba vacía.

Puedes detectar muchas cosas depende de cómo entrenes al sistema. Por ejemplo, en las empresas que hacen vigilancia o empresas que necesitan tener vigilancia (fábricas, aeropuertos) los sistemas de videovigilancia, tradicionalmente, requerían que hubiera personas mirando las cámaras, y las personas no pueden mirar todas las cámaras a la vez ni las pueden mirar 24 horas; cuando llevan unas horas se cansan y lo hacen mal, y estos algoritmos lo hacen muy bien y están teniendo mucha aplicación en el mundo de la vigilancia.

También hay mucha demanda en fábricas, porque con estos algoritmos también puedes examinar piezas o productos y que el algoritmo te diga si tiene algún defecto. Esa es la parte de gestión de la calidad, de asegurar la calidad. En lugar de tener a un humano inspeccionando mil piezas o mil productos, tienes un algoritmo, y lo que sueles hacer es combinar algoritmo y humano,.

"En algoritmos que funcionen con datos de miles de millones de personas para temas del día a día, ahí nos han tomado la delantera los americanos y los asiáticos, con Google, con Baidu"

El algoritmo examina la mayor parte y te filtra lo que claramente esté bien o mal, y el mismo algoritmo puede decidir qué cosa está un poco más dudosa y que una persona tome la decisión final.

Por ejemplo, tenemos un sistema que permite volar con drones para reconocer infraestructuras. Hasta ahora, cuando quieres examinar un oleoducto, una línea eléctrica o paneles de placas solares, tienes que mandar un equipo -que tienen que inspeccionar a pie y en coche-. Es muy costoso, tienen que pasar mucho tiempo en el terreno, recopilar datos para analizarlos más tarde... es lento y costoso.

En cambio, hemos hecho un dron que puede llevar un miniprocesador, dentro que está adaptado para estos algoritmos, y según va tomando imágenes va procesándolas y te dice si hay algún problema y si hay que intervenir en tiempo real.

¿Con qué otras empresas trabaja en estos temas?

Por una parte, la supercomputación se ha hecho tan compleja que hay muy pocos fabricantes. A nivel de supercomputación, Atos es el único fabricante que queda en Europa.

Fabricamos nuestros propios superordenadores, incluyendo equipos de edge computing. En lugar de capturar datos con sensores o con cámaras y mandarlos a una central o a la nube para que se procesen allí, como a veces los datos son muy voluminosos, si puedes tener un pequeño cerebro, un pequeño minicomputador que haga el procesamiento cerca de la fuente del dato, evitas todo eso.

Para ello, usamos tecnología propia de Atos, como nuestro ordenador para edge computing que se llama BullSequana Edge, que se lanzó en 2019, y es como un superordenador en miniatura para que la computación pueda estar cerca del dato.

'Explainable AI': "Con algunos de los algoritmos es fácil saber por qué te dan una respuesta, pero hay otros algoritmos en los que no es fácil saber por qué te han dado esa respuesta"

También usamos tecnología de partner, como por ejemplo tecnología de Google, que es socio nuestro y  ha lanzado también un superprocesador en miniatura que se llama Edge TPU. Usamos ese tipo de procesadores de terceros porque están bien adaptados para hacer procesamiento de IA, como visión artificial.

En definitiva, utilizamos tecnología propia y de terceros porque están avanzando muchísimo tanto el hardware como los algoritmos para inteligencia artificial.

Trabajamos con muchísimos socios porque, en inteligencia artificial, no puedes pretender ser tú el que diseñe todos los algoritmos. Por ejemplo, hay startups o universidades que diseñan muy buenos algoritmos, y muchas veces hacemos una colaboración a tres entre Atos, la startup y nuestro cliente para coger ese algoritmo que funciona bien, construir una solución robusta y segura alrededor de ese algoritmo y ponerla a funcionar para el cliente. Tenemos muchísima relación con universidades de España y de toda Europa.

¿Se podría cuantificar la parte de los ingresos que procede de la IA?

Nosotros no la desgranamos porque, uno, es complicado, porque está metido en muchas cosas que hacemos y, además, no nos damos cuenta, pero inteligencia artificial es una expresión que cambia de significado.

Hace veinte años, a lo mejor era inteligencia artificial que te atendiera el típico sistema que te atiende ahora cuando llamas porque se ha estropeado el router de Internet.

En cambio, ahora ya no lo llamamos inteligencia artificial porque ya lo tenemos. Ahora, inteligencia artificial nos parece un algoritmo o que aparezca un ser virtual y te hable como una persona, pero dentro de diez años eso tampoco será inteligencia artificial. 

Una cosa que sí estamos mirando en nuestra actividad de I+D+i, y llevamos mirando tiempo, son dos aspectos importantes: uno es el de la ética, porque al final si hay una máquina tomando decisiones o haciendo procesamiento de datos tienes que asegurarte de que no toma malas decisiones o de que no hay ningún sesgo en la decisión.

Si entrenas a la máquina con datos sesgados a la máquina, el algoritmo aprenderá de esos datos y se comportará mal, porque está mal entrenada. En esto llevamos tiempo investigando y es algo muy importante.

La otra cosa que ha empezado a estar en boga hace un año o dos, es lo que se llama explainable AI, la inteligencia artificial explicable. Esto es porque con algunos de los algoritmos es fácil saber por qué te dan una respuesta, pero hay otros algoritmos en los que no es fácil saber por qué te han dado esa respuesta.

Son algoritmos que suelen acertar y hacerlo muy bien, pero no se sabe muy bien por qué, y en los casos en los que fallan tampoco. Se está trabajando para poder hacer esos algoritmos explicables, para poder entender por qué dan los resultados que dan.

¿Está fundamentado el temor a la inteligencia artificial?

La verdad es que lo que tenemos ahora, aunque sea muy impresionante que una máquina detecte objetos en una imagen mejor que un humano, no es inteligencia artificial general.

Has entrenado ese algoritmo para hacer una tarea muy específica que es ver objetos en una imagen, y eso lo hace muy bien, pero no sabe hacer nada más, y ese es el estado en el que tenemos hoy la inteligencia artificial.

Los humanos somos capaces de hacer muchas tareas muy bien y además sabemos hacerlas bien cuando la información es incompleta, o cuando falta contexto; cuando algo falla nosotros sabemos lidiar con eso y los algoritmos, no.

Aún quedan muchos años para que las máquinas puedan ir teniendo esa inteligencia más general de un humano.

El miedo viene por una cosa que empezó hacia  2014-2015, que fue hacer que las máquinas aprendieran a entrenarse a sí mismas, cosa que funcionó muy bien para algunas tareas.

Fue un experimento que empezó con videojuegos y luego ha acabado con cosas más complicadas, como el algoritmo de Google que ganó al campeón mundial de GO. Esto lo logró un algoritmo que se entrenaba a sí mismo o se entrenaba con réplicas de sí mismo.

Entonces, ¿el miedo subyacente es que una máquina pueda sustituir a un humano?

El miedo es que una máquina sea superpotente y, entrenándose a sí misma, se vuelva potentísima en un tiempo muy rápido, porque los humanos hemos necesitado miles y miles y miles de años de evolución biológica para tener la inteligencia que tenemos ahora. El miedo es que una máquina pudiera hacer algo parecido en muy poco tiempo y, si eso pasara, nadie sabría qué decidiría esa máquina.

¿Decidiría hacernos caso y obedecer lo que le dijésemos o decidiría lo contrario? Ese es el miedo que hay, y por eso se dice que hay que investigar con mucho cuidado, pero la verdad es que todavía estamos lejos de ese punto.

¿Qué le parece la estrategia de la Unión Europea en materia de inteligencia artificial?

La Unión Europea ha publicado un libro blanco sobre la estrategia de inteligencia artificial. Yo creo que hay que diferenciar al menos dos partes: la privacidad y el campo de uso. Por ejemplo, en temas de privacidad y de ética, en Europa estamos en disposición de liderar esa parte, porque tenemos la legislación de privacidad más desarrollada y más respetuosa con el ciudadano del mundo.

En cuanto al campo de uso, en algoritmos que analizan datos de miles de millones de personas para temas del día a día, ahí nos han tomado la delantera los americanos y los asiáticos, con Google, con Baidu y con un otras plataformas que tienen ellos.

Pero en el uso de la inteligencia artificial para datos empresariales de negocio e industria, no tienen esa delantera hoy en día -no la tienen ni en Estados Unidos ni en China-, así que Europa tiene la posibilidad de afianzarse como líder.

Creo que la ambición de la Comisión Europea de tener el liderazgo tanto en la parte industrial como en la parte de privacidad es acertada y sabe explotar cuál es la posición de ventaja de Europa.

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky