
La referencia europea a los sistemas de inteligencia artificial está constituida por el Reglamento (UE) 2024/1689- RIA- El Reglamento constituye la primera ley que será aplicable en un territorio, en este caso supranacional, con carácter obligatorio en todos sus elementos, si bien su estructura es abierta, por razón de la materia, exigiendo constante desarrollo y evaluación a través de actos delegados y de ejecución de la Comisión.
El Reglamento, tras una intensa negociación, constituye una norma horizontal que abarca todas aquellas materias en las que los sistemas de Inteligencia artificial son utilizados, por lo que toda área económica es relevante, desplazando con ello la normativa específica, como es el caso de las políticas industriales, procesales, educativas, laborales, cadenas alimenticias, químicas o de residuos, por ejemplo.
El RIA se dirige como primer objetivo a la liberación del potencial de la transformación digital en la Unión europea, incrementando la competitividad de las empresas, especialmente de las Pymes y la innovación científica. No obstante lo cual, es criticado como insuficiente el tratamiento de los denominados códigos abiertos.
El RIA se integra, en el conjunto normativo europeo, entre las normas de primer nivel, actualmente ligadas al Derecho digital. En este núcleo se encuentra el Reglamento sobre protección de datos personales; la identidad digital y el paquete normativo sobre sostenibilidad y diligencia debida.
Asimismo, el RIA se incardina en la política sobre protección de consumidores, formando un conjunto -con independencia de la citada política- con las futuras Directivas sobre responsabilidad civil extracontractual, tanto la basada en la seguridad de los productos como en la propia inteligencia artificial. La taxonomía prevista en el RIA se basa en el riesgo y por ende en la responsabilidad de sus agentes.
El riesgo es el factor que clasifica los sistemas IA. El Reglamento separa las prácticas de IA prohibidas, a las que dedica su capítulo II (Art. 5) de las prácticas de alto riesgo (Capitulo III, Arts. 6 a 49) y de los modelos de uso general, que pueden presentar o no un peligro sistémico (Cap. V). Los sistemas de bajo riesgo favorecen la innovación mediante sandboxes regulados.
Los riesgos inadmisibles derivados de sistemas de IA, conducen a la prohibición de su empleo y desarrollo. En general, están prohibidos los sistemas que contravienen los valores de la Unión europea. El Reglamento (RIA) pone de manifiesto, por tanto, la necesaria simbiosis entre tecnología y humanismo, centrando un marco uniforme en el respeto a los derechos fundamentales consagrados en la Carta.
Con esta mínima aproximación al RIA puede entenderse la dificultad que constituye incardinar las políticas o capacidades dedicadas a la seguridad y defensa nacional en la norma europea. El considerando 24 y el Art. 2 relativo al ámbito de aplicación positivo y negativo del Reglamento excluyen estas materias en un triple aspecto: en primer lugar, competencial, en cuanto estas políticas son nacionales y el RIA no afectará las competencias de los Estados.
miembros independientemente del tipo de entidad a la que los Estados miembros hayan encomendado el desempeño de tareas en relación a la Defensa , es decir aunque sea una entidad privada. En segundo lugar, en cuanto los sistemas de IA exclusivamente dirigidos a fines militares, de defensa o de seguridad nacional, en todas sus variantes, ad nutum no están incluidos en el RIA. Y por último, en cuanto la exclusión abarca no solo los sistemas de IA con entrada en la UE, sino aquellos en que sean los resultados de salida los que se utilicen en la Unión, siempre que exclusivamente presenten fines militares, de defensa o de seguridad nacional, y nuevamente con independencia del tipo de entidad que lleve a cabo estas actividades.
La exclusión absoluta está justificada tanto por el artículo 4, apartado 2, del TUE como por las especificidades de la política de defensa de los Estados miembros y de la política común de defensa de la Unión a que se refiere el título V, capítulo 2, del TUE, que están sujetas al Derecho internacional público. Marco jurídico más adecuado para la regulación de los sistemas de IA en el contexto del uso de la fuerza letal y de otros sistemas de IA en el contexto de las actividades militares y de defensa, según recuerda el considerando 24.
Desde la perspectiva positiva, el Reglamento desarrolla ampliamente el concepto de dato biométrico. Entre sus aplicaciones se parte de la prohibición del uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de garantía del cumplimiento del Derecho, salvo y en la medida en que dicho uso sea estrictamente necesario para alcanzar otros objetivos. Entre ellos, la búsqueda selectiva de víctimas concretas de secuestro, trata de seres humanos o explotación sexual de seres humanos, así como la búsqueda de personas desaparecidas; la prevención de una amenaza específica, importante e inminente para la vida o la seguridad física de las personas físicas o de una amenaza real y actual o real y previsible de un atentado terrorista.
La excepción tiene en cuenta, además, los acuerdos existentes y las necesidades especiales de cooperación futura con socios de terceros Estados, con fines de cooperación mediante acuerdos marco o de forma bilateral celebrados a escala nacional o de la Unión con fines de cooperación policial y judicial, si el tercer país o la organización internacional correspondiente ofrece garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.
Podrá incluir las actividades de entidades públicas o privadas a las que los terceros países hayan encomendado tareas específicas en apoyo de dicha cooperación policial y judicial. Las autoridades competentes para la supervisión, tanto policiales como judiciales, deben evaluar que los marcos de cooperación o acuerdos internacionales incluyen garantías suficientes con respecto a la protección de los derechos y libertades fundamentales de las personas.
Una conclusión provisional es, por tanto, que la exclusión de las políticas de seguridad y defensa, que es esencial para la ciberdefensa y lucha en el ciberespacio, no elimina la responsabilidad en su uso en las diversas capacidades militares y de seguridad, especialmente en sus aspectos éticos y de respeto a los derechos fundamentales de los ciudadanos.
Relacionados
- EEUU aprueba ley para aumentar la seguridad de los candidatos presidenciales
- El fisco prepara 91 millones más para hacer devoluciones por el 720 y ya suma 321 millones
- Hacienda se salta al Supremo y complica la prescripción a los responsables de deudas
- Los jueces elegirán el 26 de noviembre a sus representantes en el Supremo, la Audiencia Nacional y los TSJ