Legal

La Ley de Inteligencia Artificial amplía los usos públicos sobre el texto inicial de la Comisión Europea

  • El acuerdo aclara que la norma no se aplica en áreas...
  • ...fuera del alcance de la legislación de la UE
Foto: Istock

La Presidencia del Consejo y los negociadores del Parlamento Europeo han alcanzado un acuerdo provisional sobre la propuesta que establece normas armonizadas sobre inteligencia artificial (IA), también llamada ley de inteligencia artificial. La norma deberá entrar en vigor en 2026 como muy tarde.

El proyecto de reglamento comunitario pretende garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores comunitarios. Esta propuesta histórica también pretende estimular la inversión y la innovación en IA en Europa.

Los principales elementos del acuerdo provisional en comparación con la propuesta de la Comisión pasan por la inclusión de reglas sobre modelos de IA de propósito general de alto impacto que pueden causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo, así como la introducción de un sistema revisado de gobernanza con algunos poderes de aplicación a nivel de la UE y la ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar identificación biométrica remota por las autoridades en espacios públicos, sujeto a numerosas salvaguardias, limitando las excepciones a casos de víctimas de ciertos delitos, prevención de amenazas genuinas, presentes o previsibles, como ataques terroristas, y búsqueda de personas.

Y, finalmente, se brinda una mejor protección de los derechos de las personas mediante la obligación de que quienes implementen sistemas de IA de alto riesgo evalúen el impacto en los derechos fundamentales antes de lanzar un sistema.

El acuerdo provisional también aclara que la norma no se aplica a áreas fuera del alcance de la legislación de la UE y no debe afectar a las competencias de los Estados miembros sobre seguridad nacional o cualquier entidad a la que se le hayan confiado tareas en esta área.

Además, la ley de IA no se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa. La regulación no se aplicaría a los sistemas de IA utilizados con el único fin de investigación e innovación, ni a las personas que utilizan la IA por motivos no profesionales.

El acuerdo de compromiso prevé una capa horizontal de protección, incluida una clasificación de alto riesgo, para garantizar que no se capturen los sistemas de IA que probablemente no causen violaciones graves de los derechos fundamentales u otros riesgos importantes.

Los sistemas que presenten solo un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves, por ejemplo, revelar que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior. Se autorizará una amplia gama de sistemas de IA de alto riesgo, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE.

Estos requisitos han sido aclarados y ajustados por los colegisladores de tal manera que sean más viables técnicamente y menos gravosos de cumplir para las partes interesadas, por ejemplo en lo que respecta a la calidad de los datos o en relación con la documentación técnica a elaborar por las pymes para demostrar que sus sistemas de alto riesgo cumplen los requisitos.

Dado que los sistemas de IA se desarrollan y distribuyen a través de cadenas de valor complejas, el acuerdo de compromiso incluye cambios que aclaran la asignación de responsabilidades y roles de los diversos actores en esas cadenas, en particular los proveedores y usuarios de sistemas de IA.

También aclara la relación entre las responsabilidades en virtud de la Ley de IA y las responsabilidades que ya existen en virtud de otra legislación, como la legislación sectorial o de protección de datos de la UE pertinente. Para algunos usos de la IA, el riesgo se considera inaceptable y, por lo tanto, estos sistemas serán prohibidos en la UE.

El acuerdo provisional prohíbe, por ejemplo, la manipulación cognitiva conductual, la eliminación no selectiva de imágenes faciales de Internet o imágenes de CCTV, el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles, como la orientación sexual o la religión. creencias y algunos casos de vigilancia policial predictiva para individuos.

WhatsAppTwitterTwitterLinkedinBeloudBeloud