
En su novela «1984», Georges Orwell describe un mundo en el que los ciudadanos están bajo la vigilancia constante de un poder autoritario, encarnado por la figura del Gran Hermano. En la era de la tecnología digital, las huellas que dejamos, combinadas con los avances de la IA, exponen a todos los ciudadanos/consumidores a un trato similar. Para evitar que esta distopía orwelliana se haga realidad, parece crucial regular el uso de esta tecnología.
Por lo tanto, la noción de inversión responsable implica garantizar que las empresas que crean y desarrollan estos sistemas de IA establezcan cortafuegos operativos adecuados bajo la supervisión de órganos de gobierno que tengan la experiencia necesaria para comprender estas cuestiones y mitigar eficazmente los riesgos asociados.
La necesidad de regulación: Ley de la IA
A falta de una regulación a nivel mundial, la Unión Europea (UE) introdujo el primer Reglamento sobre IA (AI Act) en junio de 2024 para su aplicación progresiva hasta diciembre de 2030. El objetivo de este reglamento es garantizar que la IA se utilice de forma segura, ética, transparente y respetando los derechos fundamentales. Para ello, los casos de uso de la IA se han categorizado por nivel de riesgo (mínimo, limitado, alto, inaceptable) y se han ligado a obligaciones dirigidas a reducir o eliminar los riesgos asociados. La UE ha ampliado el ámbito de aplicación de la Ley de la IA para que la naturaleza digital de la IA no permita eludir la normativa. La Ley de la IA se dirige no sólo a los proveedores e implantadores de sistemas de IA ubicados en la UE, sino también a aquellos cuyos resultados, producidos por sistemas de IA, se utilizan en la UE. El término resultado es lo suficientemente amplio como para abarcar una gran variedad de situaciones, como "predicciones, contenidos, recomendaciones o decisiones".
Para evitar que la IA funcione como una caja negra, la Ley de la IA pretende proteger a los ciudadanos europeos de un uso sesgado garantizando la transparencia y rastreo del proceso de inferencia, que debe permanecer bajo supervisión humana. Aplicada a los recursos humanos, un caso de uso de alto riesgo, esta normativa exige que cualquier empresa que utilice IA para clasificar solicitudes de empleo, debe informar a los candidatos y ser capaz de explicar cómo funciona el algoritmo utilizado. Además, para evitar posibles fallos de funcionamiento, como alucinaciones, todo el proceso debe realizarse bajo supervisión humana.
Aunque la ley sienta las bases de la regulación de la IA, no está exenta de críticas. Desde una perspectiva económicamente liberal, su complejidad y costes asociados podrían verse como barreras a la innovación. Sobre todo, porque estos nuevos requisitos deben integrarse con otros preexistentes, como los derechos fundamentales, la protección de datos personales, la protección de los consumidores y la protección de la propiedad intelectual. Para otros, más sensibles a los derechos humanos, la normativa se considera demasiado indulgente y su aplicación demasiado lenta.
La importancia de la regulación mundial
Es probable que la extraterritorialidad de la Ley de IA y las cuantiosas multas a las que pueden exponerse las empresas (hasta el 7% de los ingresos mundiales por usos prohibidos) interfieran en los intereses de otras regiones económicas. Por ejemplo, la actual administración estadounidense, que ha suavizado las restricciones a los proveedores de IA en nombre de la preservación de la innovación, también está presionando, según Bloomberg, a las autoridades europeas para que abandonen el Código de Prácticas de IA de Propósito General que se espera para agosto. Este documento no vinculante, del que son coautores varias partes interesadas, incluidos los propios proveedores de modelos de IA, detalla las mejores prácticas que deben adoptarse.
Esta lucha de poder pone de manifiesto la necesidad de llegar a un acuerdo para evitar la proliferación de reglas y normas nacionales que podrían obstaculizar el desarrollo de la IA. Sin embargo, dados los sesgos culturales e ideológicos existentes, es probable que sólo pueda determinarse un modelo de gobernanza mundial de la IA basado en el mínimo común denominador. Este parece ser el papel que se ha asignado al Pacto Mundial Digital, adoptado por 193 países en la Cumbre del Futuro de 2024. Al igual que su predecesor, el Pacto Mundial de la ONU, fue diseñado para promover los derechos humanos, las normas laborales, la gestión medioambiental y la lucha contra la corrupción, el Pacto Mundial Digital pretende «definir principios compartidos para un futuro digital abierto, libre y seguro para todos». Dentro de él, el Comité de Inteligencia Artificial pretende «reforzar la gobernanza internacional de los datos y regular la IA en beneficio de la humanidad».
IA y las barreras a su adopción
Calificada a menudo como la 4ª revolución industrial, la inteligencia artificial (IA) es un importante motor de mejora de la productividad. Aunque todavía no se ha incorporado íntegramente su potencial en todos los modelos empresariales, su rápido auge suscita legítimas preocupaciones. De hecho, según datos recientes de Eurostat, las cuestiones e incertidumbres relacionadas con la regulación del uso de la IA se encuentran entre los principales obstáculos para su adopción por parte de las empresas con más de 250 empleados dentro de la Unión Europea.
Estos datos ponen de relieve la necesidad de desarrollar la IA en un marco seguro. Los riesgos jurídicos y normativos asociados a la IA, incluidos los relacionados con la propiedad intelectual, la protección de datos, la privacidad y la ética, se engloban todos bajo el paraguas de la gobernanza de la IA, es decir, todos los procesos y normas que garantizan un uso seguro y ético. Es probable que una gobernanza sólida fomente la adopción de la IA.
Relacionados
- La inteligencia artificial pone en jaque a los recién graduados: el desempleo juvenil se dispara en los sectores más automatizados
- La aviación se alía con la inteligencia artificial pero descarta ceder el mando
- Microsoft formará en inteligencia artificial a docentes y alumnos de formación profesional en Aragón
- Inteligencia Artificial: el nuevo sistema operativo del sector inmobiliario