
La implementación de la inteligencia artificial (IA) generativa en la Unión Europea debe cumplir con la AI Act, en vigor desde el 1 de agosto de 2024, una normativa basada en riesgos que busca equilibrar la innovación y la seguridad, eliminando sesgos contra personas y grupos sociales. Además, esta regulación debe abordar los retos de una tecnología en rápida evolución y con un potencial todavía desconocido.
El amplio alcance de la ley exige que los sistemas de IA sean seguros, transparentes, trazables y no discriminatorios, lo que convierte el cumplimiento en una tarea compleja pero trascendental para el presente y futuro empresarial . Sobre este asunto hablamos con una experta en la materia, como es Laura Landaluce, senior manager Data & AI Strategy en Capgemini Invent España.
¿Vamos hacia una dependencia aún mayor de las tecnológicas?
En el corto plazo probablemente sea así. Si tú quieres desarrollar tus modelos de IA generativa necesitas unas capacidades de procesamiento de datos ingente, que las compañías no están preparadas para abordar en la actualidad, salvo en el caso de las grandes tecnológicas. Y hablando de la IA generativa no sabemos todavía donde nos va a llevar, porque las capacidades que ha demostrado en muy poco tiempo son muy elevadas y veremos donde estamos dentro de cinco o diez años.
¿Qué responsabilidad van a tener los consejos de administración en la elaboración y prestación de servicios con IA y de quien deben depender los responsables de la implementación de los sistemas?
Por de pronto, en febrero de 2025, cualquier compañía que tenga desarrollado un sistema que la norma cataloga como prohibido no van a poder seguir manteniéndolo en ejercicio. Y en el caso de los modelos de riesgo alto la vigilancia es achacable a los responsables de las compañías. En cuanto a de quien deben depender los responsables de la elaboración de los sistemas, entre las grandes empresas hay un panorama muy heterogéneo, puesto que depende de la estructura que tengas las respectivas compañías. Hay compañías en las que la dependencia es de los equipos de tecnología y cae bajo el paraguas de un CTO, pero hay otras compañías en las que depende de los equipos de gobernanza de datos, bajo un CDO. No obstante, otras compañías están creando equipos multidisciplinares, con departamentos de legal, tecnología, gobernanza de datos o, incluso, de formación de personas.
¿Qué papel van a jugar aquí los auditores internos?
Serán los encargados de certificar que ese modelo que gobernanza que se ha definido se despliega de una manera adecuada y será el encargado de esa revisión antes de que intervenga un auditor externo. Estamos más por hacer un modelo de gobernanza por diseño que uno reactivo. Tenemos que hacerlo de una manera ágil, pero aplicando la capa de gobernanza desde los modelos iniciales. Aquí el auditor interno tiene que desarrollar su labor para que cuando lleguemos al final estemos seguro de que nuestro modelo cumple todas las exigencias legales y no aparezcan sorpresas desagradables.
¿Es más seguro para las empresas del IBEX crear sus propios sistemas de IA sin intervenciones exteriores?
En lo que respecta a la IA más tradicional creo que sí, que así lo están haciendo, pero en los que se refiere a la IA generativa es muy complicado que se pueda hacer en solitario, tanto por las dificultades técnicas como por los elevados costes que supone. Estos modelos son desarrollados por grandes tecnológicas y lo que hacen las empresas es una adaptación, un entrenamiento más suave con los datos propios de la compañía. En estos casos, los modelos son propiedad de un tercero. Que la regulación nos impacta nos lleva a protegernos de posibles fallas en la seguridad de los datos y demás.
Viendo los estudios que se van realizando hay compañías que reconocen que no encuentran el talento que necesitan para digitalizarse y que se dan retrasos y cancelaciones en los proyectos por no contar con personas con las habilidades requeridas. ¿La IA es un reto desmedido para buena parte de las empresas españolas?
Tenemos, por ejemplo, la regulación, que impone ciertas restricciones, si ya es complejo para estas grandes empresas adaptarse al nuevo sistema regulatorio, pues para una pequeña empresa lo es más todavía . En temas regulatorios, en todo lo que tiene que ver con la IA hay iniciativas, como el sandbox en España, que está orientado a ayudar a estas empresas que tienen unas capacidades más limitadas, generando guías sobre como implementar la legislación y cumplimentar el proceso.
¿Ahora la norma deberá ser complementada con reglamentos?
La legislación siempre va por detrás, pero en la Unión Europea hemos sido pioneros. Es la primera legislación que hay sobre IA, aunque está orientada hacia lo que podemos llamar IA más tradicional, porque la generativa aparece cuando ya se está perfilando la actual legislación. La regulación en parte la recoge, pero había discusiones sobre este tipo de tecnología, sobre si tenía que ser catalogada como de riesgo alto o no. La verdad es que la IA generativa nos ha pillado a todos sin saber que capacidades va a desarrollar para regularlas. Lo que veremos a medio plazo es que la regulación se ha quedado corta en algunos aspectos, porque hay cosas que ni siquiera sabíamos que se podían dar. La normativa tendrá que evolucionar. Es lo que tiene ser la primera zona que tiene una regulación sobre la materia.
¿Hablar de IA y de respuesta empresarial es hablar de ética?
Esta es una regulación que centra mucho el foco en una serie de modelos, como son los de riesgo alto, que son los que pueden tener un impacto sobre las libertades individuales, y aborda toda la parte de la ética, seguridad de datos y modelos, ciberseguridad, gestión de datos, para asegurar que éstos son de calidad, si tenemos controlados los sesgos. También, es importante todo el foco que pone sobre las personas, al regular que tiene que haber una supervisión humana sobre los modelos, principalmente sobre los de riesgo alto, que son los que pueden tener un impacto más directo. Y no solo eso, sino que nos impone como obligación formar a las personas que van a desarrollar los modelos y también a quienes los van a estar consumiendo.
¿Y qué va a pasar con las importaciones de modelos y sistemas chinos y americanos, por ejemplo, que las empresas importan para reducir sus costes de elaboración, porque la legislación en esos países es bastante más laxa?
No se puede negar que mientras no evolucione la legislación habrá que estar atentos a lo que nos viene de fuera de la UE. Habrá ciertos productos de otros países que aquí no se van a comercializar, porque no se adecuan a la legislación. En Estados Unidos no tienen un sistema regulatorio comparable a la UE, pero tienen un panorama regulatorio bastante complejo, más, incluso que en la UE que existe una única regulación. Allí tienen regulaciones a nivel federal, estatal e, incluso, local. También están haciendo un esfuerzo para enfocar esa legislación y esperemos que estas regulaciones acaben convergiendo en algo singular si quieren que les funcione el mercado de la comercialización.
¿Están apostando las empresas españolas por la transformación digital?
Las empresas llevan años apostando, sobre todo cuando hablamos d empresas Ibex35. Son empresas que en sus planes llevan la innovación y la transformación digital. Y, sobre todo, en los dos últimos años toda la innovación que viene de la inteligencia artificial generativa, que ha supuesto, al final, un boom y que ha llevado a todas estas empresas a investigar sobre esta tecnología, con sus posibilidades y limitaciones e, incluso, con productos que ya se llevan al mercado, pero en este caso con un volumen menor. Estamos en un periodo de testeo y de prueba para ver que se puede y no se puede hacer.
¿Lo que se necesita es transformar las personas, tanto físicas como jurídicas, o la IA se encargará de ello?
Todavía no sabemos lo que podemos esperar en el largo plazo de la inteligencia artificial generativa. Creo que va a ser un desarrollo muy positivo, pero que va a plantear grandes retos. No creo que ni a corto ni a largo plazo la IA generativa nos vaya a sustituir. Lo que sí que está claro es que vamos a tener que convivir con ella y a explotar sus capacidades. Parece claro que muchos puestos de trabajo van a sufrir una transformación y van a aparecer nuevos puestos de trabajo, como ha ocurrido con el desarrollo de otras innovaciones a lo largo de la historia, pero en el corto y medio plazo lo que vamos a tener que hacer es adaptar a las personas al empleo de esta nueva herramienta.
¿Cree que se debe impulsar la colaboración entre sectores para fomentar el uso responsable de la IA, uniéndose a iniciativas globales que favorezcan las prácticas sostenibles y éticamente responsables?
Hay iniciativas como el que es el Pacto de Inteligencia Artificial (IA) de la UE que están firmando empresas de diversos sectores y tamaños, que es un código de adherencia de cumplimiento de la legislación de la UE, lo que fomenta el cumplimiento de buenas prácticas que ayuden a todos los sectores a regirse por la normativa comunitaria. También en Estados Unidos las grandes tecnológicas han firmado un acuerdo en el que se comprometen a cumplir las legislaciones y los límites éticos en sus desarrollos de IA.
¿Qué papel van a jugar las consultoras en este proceso?
La regulación, como tantas veces ocurre, nos dice qué, pero no cómo, y es en este camino, en el como hacer las cosas, donde las consultoras tienen una labor muy destacable y fundamental que desarrollar. Es una normativa que hay que trabajar muy de la mano con los equipos legales, pero es una legislación que baja muy rápido al plano técnico. En el cómo se incluye la seguridad de que mis modelos son seguros, mis datos son fiables, lo que obliga a ir muy de la mano de los equipos técnicos, que están muy cerca del desarrollo. A la hora de ver cómo se traslada la legislación a una implementación real, el papel de las consultoras es muy importante. Como trasladar ese papel a las necesidades de identificación conlleva una necesidad de asesoramiento, que es el papel que van a jugar las consultoras. Y también, lógicamente, jugarán un papel determinante en lo que se refiere a la formación, que viene obligada por la propia legislación.