Economía

Europa abre la puerta a multar el uso de la inteligencia artificial para descartar curriculums

  • Se considera de alto riesgo su uso en la gestión de candidatos y trabajadores
  • Un incumplimienot puede llevar a multas de hasta el 3% de la facturación 
  • ETTs y plataformas como LinkedIn o Infojobs pueden ser denunciadas por particulares 
Foto: Dreamstime

A la espera de conocer la letra pequeña de la denominada 'Ley de Inteligencia Artificial' (AI Intelligence Act) pactada en la Unión Europea y que supone el primer marco legislativo que regula el desarrollo y la aplicación de esta tecnología, las empresas y los profesionales especializados en la selección de personal se preparan para una revolución en su tarea. Y es que la normativa eleva los controles y sanciones millonarias contra un mal uso de estos programas a la hora de seleccionar y contratar a los candidatos.

Entre otras muchas cuestiones, la regulación pone el foco en el uso de las nuevas tecnologías en el ámbito laboral. Algunas de ellas, como el reconocimiento biométrico de las "emociones" en el puesto de trabajo o el ámbito educativo se han visto directamente prohibidas, aunque es cierto que su implantación era muy limitada. Otras ya se llevan años utilizando. Es el caso de los algoritmos para la gestión del personal, cuyo uso se ha visto regulado ya en algunos países.

Así, la denominada 'Ley Rider' española, ya abarca el derecho de los trabajadores a ser informados por la empresa de los "parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial" que afectan a la toma de decisiones que puedan" incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo". Aunque en la práctica esta información no se traslada al empleado, sino a sus representantes.

Por ello, aunque se trata de una regulación pionera que Europa estudia para regular las relaciones laborales en las plataformas digitales, en lo que se refiere a los algoritmos su impacto es muy relativo, ya que el control sobre el uso de la tecnología se reduce a una obligación de transparencia en el ámbito de la negociación colectiva. Además, tampoco tiene en cuenta un importante matiz: mientras la evaluación de los trabajadores mediante estas herramientas la ejecuta la propia empresa y por ello puede discutirla con los sindicatos, el caso de los procesos de selección es diferente.

Selección automatizada

Muchas empresas ya utilizan softwares de reclutamiento o ATS (acrónimo de Applicant tracking system) para reclutar mano de obra, pero muchas otras 'externalizan' parte del trámite en empresas de selección de personal, cuando no en plataformas tipo LinkedIn o Infojobs donde publican sus ofertas de empleo. Estas compañías no tienen un papel tan neutral como puede parecer, ya que sus algoritmos "recomiendan" empleos a los usuarios y candidatos a los reclutadores que las utilizan. Incluso pueden descartar curriculums que no encajen con los requisitos de la empresa.

Según avance la inteligencia artificial, estos procesos serán todavía más automatizados, y las responsabilidades en caso de sesgos resultarán más difíciles de discernir. Precisamente LinkedIn anunció hace unas semanas un nuevo servicio de la inteligencia artificial que, entre otras cuestiones, podría animar o desaconseja al candidato a optar por ciertos puestos.

Esta es una cuestión a la que apunta directamente la nueva normativa europea, que sí es una legislación tecnológica y entra de lleno en el ámbito de la responsabilidad en el uso de la inteligencia artificial. Así, reconoce que "los sistemas de IA se desarrollan y distribuyen a través de complejas cadenas de valor", con lo cual "aclaran la asignación de responsabilidades y funciones de los distintos agentes de esas cadenas". Es decir, los proveedores y los usuarios de la tecnología.

Además, la normativa europea sí clarifica cómo se usa la IA en el ámbito laboral cosa que no hace la 'Ley Rider'. Por un lado, señala los sistemas utilizados para "tomar decisiones sobre ascensos y ceses", para asignar tareas "en función del comportamiento individual o de rasgos o características personales" y para "supervisar y evaluar el rendimiento y el comportamiento de las personas en dichas relaciones", incluyendo aquí a los autónomos que trabajan para plataformas (como los riders).

Por el otro, pone señala a la inteligencia artificial empleada para "la contratación o selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos".

En el ámbito laboral, esta precisión supone un cambio muy relevante. Si bien una empresa es responsable de cómo utilice los algoritmos para evaluar a su plantilla, a la hora de cribar curriculums, esto es más difícil de controlar.

Fuertes multas y más denuncias

Bruselas no puede, ni pretende, prohibir este uso de la inteligencia artificial para reclutar ni para evaluar a los trabajadores, pero sí la engloba en el grupo de usos de "alto riesgo". Esto no significa un aval, sino que se elevan las exigencias al máximo. tanto los proveedores de estas tecnologías como los que las utilizan tendrán que ser mucho más vigilantes para evitar vulnerar la normativa comunitaria. Si esto ocurre, la multa puede llegar a 15 millones de euros o un 3% de la facturación anual de la compañía infractora.

Los sistemas de inteligencia artificial considerados de alto riesgo deben garantizar que cumplen "una serie de requisitos y obligaciones para acceder al mercado de la UE". Si se registran incumplimientos, habrá sanciones. Pero quién paga: ¿el proveedor de la tecnología o el usuario?

Este es uno de los puntos oscuros de la legislación y que más debate ha suscitado. por ver hasta qué punto la propuesta inicial se ha trasladado al texto final (por ejemplo, se ha pacado que en caso de las startups y pymes se establezcan umbrales "más proporcionados"). Aunque aún queda mucho trabajo de perfilado y concreción en los próximos meses antes de que la norma se empiece a adoptar por cada país europeo, para lo que tendrá un plazo de dos años.

Sin embargo, nadie duda de que también tendrá un impacto en la actividad de las empresas qu usen estas tecnologías. Precisamente uno de los puntos clave del acuerdo es que cualquier persona física o jurídica puede presentar "una reclamación a la autoridad de vigilancia del mercado pertinente en relación con el incumplimiento de la ley europea" sobre IA. Esto dará poder a las organizaciones sindicales para denunciar incumplimientos.

Pero también pueden suponer un quebradero de cabeza para las empresas de trabajo temporal o las plataformas de gestión de ofertas como LinkedIn o Infojobs, que pueden afrontar denuncias directas si se considera que sus algoritmos y sistemas de inteligencia artificial vulnera la normativa, aunque inicialmente hubieran recibido el visto bueno de Bruselas.

WhatsAppTwitterTwitterLinkedinBeloudBeloud