Economía

Bruselas quiere controlar la inteligencia artificial de alto riesgo

  • Propone multas de hasta 20 millones de euros o 4% de los ingresos
  • Utilizable siempre y cuando persiga "salvaguardar la seguridad pública"
El Consejo Europeo. Foto: Reuters
Bruselas

La transformación digital es, junto con la transición 'verde', una de las gran prioridades políticas de la UE para los próximos años. Se llevará al menos un 20% de los fondos de recuperación, y empapa constantemente el discurso de las instituciones comunitarias. Y ninguna tecnología promete ser tan revolucionara y, al mismo tiempo, despierta tantos temores como la inteligencia artificial.

Por eso, la Comisión Europea quiere incrustar en este potente sector los principios y valores europeos, explotando sus oportunidades y restringiendo sus usos más perniciosos.

La Comisión presentará este miércoles un reglamento para que el desarrollo la inteligencia artificial no termine desbocado en manos del sector privado, y evitar su uso orwelliano por parte de los poderes públicos, como sucede en China.

El Ejecutivo comunitario propone prohibir la inteligencia artificial para en aquellos usos de "alto riesgo"

"Se necesita un marco legal que establezca un enfoque europeo sobre la inteligencia artificial para fomentar el desarrollo y la adopción de la inteligencia artificial que cumpla con un alto nivel de protección de los intereses públicos, en particular la salud, la seguridad y los derechos y libertades fundamentales de las personas reconocidas y protegidas por el Derecho de la Unión", dice el borrador de la propuesta, a la que tuvo acceso elEconomista.

El Ejecutivo comunitario propone prohibir la inteligencia artificial para en aquellos usos de "alto riesgo" en los que esta tecnología se utilice para la "vigilancia indiscriminada aplicada de manera generalizada a todas las personas físicas sin diferenciación". Además, la limitará en otros casos si no se cumplen una serie de estándares.

También se prohibirá la aplicación de la inteligencia artificial para manipular el comportamiento humano, o su utilización en sistemas predictivos que busquen explotar las vulnerabilidades de las personas.

Las empresas que utilicen la inteligencia artificial para estos fines podrían ser multadas con hasta el 4% de su facturación anual global o 20 millones de euros. Sin embargo, el reglamento comunitario señala que las autoridades públicas podrían utilizar esta tecnología en algunos de los casos más sensibles siempre que persiga "salvaguardar la seguridad pública", siempre que esté acotada en el espacio y en el tiempo.

Por lo tanto, los Estados miembros podrían utilizar sistemas de seguimiento, como el reconocimiento facial, para perseguir a terroristas.

Prohibir sistemas de puntuación social

La Comisión también quiere prohibir el empleo de la inteligencia artificial para los sistemas de puntuación sociales, como el que aplica China para controlar a sus ciudadanos, y propone un escrutinio especial para aquellos fines de "alto riesgo", como su empleo al evaluar y seguir la calidad crediticia de una persona.

"Los sistemas de inteligencia artificial utilizados para este propósito también pueden perpetuar patrones históricos de discriminación en la financiación al consumo, por ejemplo, contra personas de determinados orígenes étnicos o raciales o crear nuevas formas de discriminación", advierte el borrador de la propuesta.

Una de las novedades será la creación de una Junta Europea de Inteligencia Artificial, con representantes de los Estados miembros, la Comisión y el Supervisor Europeo de Protección de Datos, para emitir recomendaciones y opiniones sobre lista de prácticas de inteligencia artificial prohibidas y la lista de sistemas de inteligencia artificial de alto riesgo.

comentarios0WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin