
La misión de Kalliopi Spyridaki dentro de SAS, empresa especializada en Inteligencia Artificial (IA) y analytics, es trabajar con los reguladores y los responsables políticos para dar forma a las leyes y políticas relacionadas con los datos y la IA. De ahí que aprovecháramos una reciente visita a Madrid para hablar con ella sobre los retos y oportunidades de esta tecnología, también sobre su regulación…
¿Cuáles son las conclusiones a las que ha llegado en este evento celebrado en Madrid sobre la regulación de la Inteligencia Artificial?
La oportunidad de debatir entre las partes interesadas de toda la cadena de valor de la IA ha sido muy útil. Dado que la Ley de IA de la UE es la primera de este tipo a nivel mundial, es muy beneficioso intercambiar las mejores prácticas y debatir los retos hacia el objetivo común de una IA digna de confianza. Ha sido alentador escuchar que las empresas y autoridades públicas no están intimidadas por los nuevos requisitos. Al contrario, la mayoría parece optimista y se están haciendo preparativos para adaptarse a los nuevos requisitos. Me di cuenta de que España va probablemente por delante en cuanto a la aplicación de las nuevas normas tanto por parte del sector público como del privado.
¿Por qué es tan necesaria la regulación de la Inteligencia Artificial?
La IA está regulada en la actualidad a través de diversas leyes vigentes que, por ejemplo, se refieren a los datos personales, las decisiones automatizadas, el acceso a los datos y el intercambio de datos, la responsabilidad civil por productos defectuosos y la seguridad de los productos. Sin embargo, las leyes existentes no están diseñadas para abordar las especificidades de la IA relacionadas, por ejemplo, con la autonomía y la opacidad de las tecnologías de IA o de los grandes modelos lingüísticos en particular.
¿Sería necesaria esa pausa en el desarrollo tecnológico de la que muchas veces se ha hablado?
Recordará el debate público que siguió a la publicación de Chat-GPT y la carta abierta en la que se pedía una pausa en el entrenamiento de los sistemas de IA. La Ley de IA de la UE se estaba negociando en aquel momento y, como resultado, hoy incluye un capítulo dedicado a los "modelos de IA de propósito general". La claridad jurídica en torno al desarrollo y el uso de la IA puede generar confianza entre los operadores de IA y los usuarios finales, lo que conducirá a la adopción de la tecnología de IA, así como a la innovación que impulsa el crecimiento económico en Europa.
¿Qué límites deben imponerse al uso de esta tecnología? ¿Cuáles son esas "líneas rojas"?
Usted plantea bien la pregunta. Es el uso de la tecnología lo que puede plantear riesgos, no la tecnología en sí. La Ley de IA adopta un enfoque basado en el riesgo. "Riesgo" en esta ley se entiende en términos de riesgo para la salud, la seguridad y los derechos fundamentales. La IA que plantee un riesgo inaceptable estará prohibida en la UE.
¿Puede poner algunos ejemplos?
Esto incluye, por ejemplo, los sistemas de IA que desplieguen técnicas subliminales o técnicas deliberadamente manipuladoras o engañosas destinadas a distorsionar el comportamiento de una persona; o los sistemas de IA que exploten a personas vulnerables; o los sistemas de IA utilizados para el 'scoring' social. La Ley de IA también incluye una lista de sistemas de IA de alto riesgo en la que se establecen requisitos y obligaciones específicos para su desarrollo y uso. Se considerarán sistemas de IA de alto riesgo, por ejemplo, los destinados a ser utilizados en la educación para evaluar a los alumnos o para la gestión de infraestructuras críticas o para asignar prestaciones públicas o en la aplicación de la ley. Además, la Ley de IA incluye requisitos de transparencia para determinados sistemas de IA, por ejemplo, los destinados a interactuar con seres humanos, como los chats, o a producir resultados, como imágenes o texto, que deberán marcarse como generados o manipulados artificialmente.
¿Qué opina de la iniciativa de regulación de la IA aprobada recientemente por la UE?
Es un reto diseñar la regulación de una tecnología que evoluciona con extrema rapidez, tiene el potencial de impactar en la economía y la sociedad en su conjunto de manera profunda y, por tanto, puede plantear riesgos importantes, o incluso existenciales, para los individuos y la humanidad. La UE ha sido capaz de acordar la primera ley sobre IA a nivel mundial y en un plazo relativamente corto. El objetivo del nuevo marco jurídico es bienvenido y creo que tiene tres vertientes: proteger a las personas, hacer operativa la ética y promover la innovación y la adopción de una IA de calidad. La aplicación de esta ley por las organizaciones mundiales es compleja y requiere una cooperación interfuncional apoyada por el liderazgo ejecutivo. La Ley de IA prevé nuevas orientaciones normativas que se desarrollarán en relación con numerosas disposiciones que ayudarán a las organizaciones a aplicar los nuevos requisitos.
¿Cree que esta iniciativa de la UE puede tomarse como modelo para regular la IA en el resto del mundo?
Muchos países de todo el mundo, como Estados Unidos, Reino Unido, Japón, Singapur, India o Australia, están debatiendo cómo podrían ser sus marcos reguladores de la IA. Por el momento, la mayoría de los países parecen indecisos a la hora de introducir una legislación estricta sobre la IA, como la UE. Pero, sin duda, estos países seguirán observando la aplicación de la Ley de IA de la UE y cómo puede afectar al mercado. También observamos una amplia actividad política en materia de IA a escala internacional, con directrices adoptadas por el G7, la ONU y el Consejo de Europa con su Convenio sobre IA recientemente acordado en materia de derechos humanos. Independientemente de los instrumentos jurídicos que finalmente se elijan en los distintos países, es importante señalar que podemos observar un entendimiento común en todas las geografías a nivel de principios, incluidos, por ejemplo, los conceptos de centralidad humana, bienestar social, transparencia, responsabilidad y solidez.
La UE se ha atribuido un papel de regulador mundial. ¿Cree que a la UE le conviene adoptar ese papel?
Ciertamente, la experiencia con el GDPR, una ley que se introdujo en Europa en 2018 y que ha inspirado leyes similares al GDPR en todo el mundo en la actualidad, sugiere que es posible que la UE establezca estándares globales sobre el uso y los desarrollos de IA sobre la base de los valores europeos consagrados en la Ley de IA de la UE. En los últimos años, la UE ha asumido el liderazgo mundial en la introducción de un corpus legislativo considerable para regular el mercado de la IA y los datos, por ejemplo, en relación con el acceso a los datos, su uso, intercambio y responsabilidad. Como todo, este planteamiento conlleva ventajas y riesgos. Queda por ver cómo afectará a la adopción de la IA y a la innovación en Europa.
¿No sería mejor aplicar en la UE políticas que fomenten la innovación para las empresas?
A menudo se argumenta que la claridad jurídica puede fomentar la innovación. La UE debe aspirar a ser líder mundial tanto en innovación como en regulación de la IA. Las numerosas estrategias nacionales de IA de los Estados miembros de la UE incluyen políticas destinadas a fomentar la innovación. La Ley de IA de la UE también incluye varias disposiciones centradas en la innovación, por ejemplo, la obligación de los Estados miembros de la UE de establecer 'sandboxes' regulatorios o las normas y excepciones específicas aplicables a las empresas más pequeñas.
¿Cuándo y cómo entrará en vigor esta normativa y cuál será su impacto en las empresas, los particulares y la sociedad en su conjunto?
Se espera que la Ley de IA entre en vigor en torno a junio de 2024 y comience a aplicarse gradualmente entre finales de 2024, empezando por las disposiciones sobre IA prohibida, y mediados de 2027. No obstante, podemos esperar un impacto significativo en el mercado antes de que la ley se aplique plenamente. Durante el debate en el evento organizado por SAS en Madrid, escuchamos cómo tanto el sector privado como el público ya se están preparando para aplicar esta ley, ¡cuando el texto final aún no se ha adoptado formalmente! Creo que la Ley de IA también contribuirá a aumentar la concienciación y la alfabetización en IA de la sociedad en su conjunto.
¿Cree que la UE tendrá autoridad y poder para imponer esta normativa a los Estados miembros?
La Ley de la IA establece un nuevo y detallado sistema de gobernanza que incluye una Oficina de la IA dependiente de la Comisión Europea en Bruselas, el Consejo de la IA de la UE, un panel científico y autoridades supervisoras en cada Estado miembro que introducen normas en torno a su cooperación. Como hemos visto también durante las negociaciones legislativas sobre la Ley de la IA de los últimos tres años, los Estados miembros tienen un entendimiento común sobre los riesgos y oportunidades asociados al desarrollo y uso de la IA. Es de esperar que la UE pueda facilitar un enfoque armonizado para la aplicación de la ley en toda Europa y coordinará una mayor orientación en todo el mercado interior de la UE para una tecnología omnipresente que no tiene fronteras nacionales.
¿Qué deben hacer las empresas para prepararse y cumplir este reglamento?
Las organizaciones tendrán que mejorar y ampliar sus prácticas de gobernanza de datos introducidas a efectos del RGPD y otras leyes relacionadas con los datos. Los desarrolladores y usuarios de IA tendrán que evaluar si pueden entrar en el ámbito de aplicación de este Reglamento y de qué manera. No se trata de una evaluación sencilla. No toda la IA está regulada. Cuando un sistema de IA o un modelo de IA de propósito general entra en el ámbito de aplicación, las obligaciones incluyen el diseño, la documentación y la aplicación de numerosas políticas y procedimientos, incluidas evaluaciones exhaustivas del riesgo del producto y un sistema de gestión de la calidad que debe implantarse en toda la organización. Es importante que las organizaciones consideren la IA fiable no solo como un requisito legal en Europa, sino también como una opción estratégica para las organizaciones responsables a nivel mundial que deseen seguir siendo competitivas en un mercado que seguirá evolucionando extremadamente rápido impulsado también por la evolución normativa, como la Ley de IA de la UE.
En el caso de SAS, ¿cómo les puede afectar en el desarrollo de soluciones de IA?
Nuestra visión en SAS es ser el socio analítico más fiable del planeta. Para ello, creemos que la innovación responsable abarca preguntarse "deberíamos" y "podríamos". En SAS aplicaremos normativas sobre IA basadas en nuestro enfoque y políticas que reflejan nuestros principios, a saber, la centralidad humana, la inclusión, la transparencia, la responsabilidad, la solidez y la privacidad y seguridad. SAS es una de las organizaciones punteras que ha respondido positivamente a la llamada de interés de la Comisión Europea para adherirse al Pacto de IA de la UE, un plan que se espera poner en marcha a finales de este año para proporcionar una plataforma para el intercambio de mejores prácticas y fomentar la pronta aplicación de las medidas previstas por la Ley de IA.
¿Cómo es la gobernanza interna de SAS?
SAS ha realizado importantes esfuerzos, incluida la creación de nuestra Práctica de Ética de Datos en 2022, para desarrollar un enfoque integral de la IA digna de confianza que refleje un modelo de gobernanza formado por cuatro componentes vitales, a saber, Supervisión, Controles, Cultura y Plataforma. El componente de Supervisión se refiere a la supervisión interdisciplinar a nivel ejecutivo para orientar los dilemas éticos de la IA desde el desarrollo de productos hasta las oportunidades de venta. Controles se refiere a la evaluación de los requisitos globales de cumplimiento de la IA y el establecimiento de métodos de gestión de riesgos específicos de la IA. En cuanto a la Cultura, contamos con programas para concienciar y formar a los empleados en los principios, métodos y herramientas fiables de la IA. Por último, el componente Plataforma engloba nuestros productos y capacidades que reflejan los valores y principios de SAS y permiten a nuestros clientes emprender su propio viaje hacia una IA fiable.