
La confianza en la IA no exime a las empresas de sus deberes preventivos; de hecho, la utilización de esta tecnología puede incrementar las responsabilidades legales, según ha explicado Mar Alarcón, profesora del Departamento de Derecho del Trabajo y de la Seguridad Social de la Universidad Rey Juan Carlos, en su intervención en el XII Congreso Internacional de salud laboral y prevención de riesgo, organizado por la Sociedad Española de Salud y Seguridad en el Trabajo.
Las organizaciones y sus directivos deben ser conscientes de los cuatro tipos principales de responsabilidad ante incumplimientos vinculados a la seguridad y salud en el trabajo (SST) al usar IA. Cualquier infracción de la normativa de prevención de riesgos laborales, incluyendo la no evaluación de un nuevo riesgo introducido por una IA o la falta de formación a los trabajadores en su uso seguro, conlleva sanciones administrativas significativas, que pueden ir desde 2.451 a 49.180 euros por infracciones graves, y hasta 196.745 a 983.736 euros para las muy graves.
."Si bien la IA ofrece inmensas oportunidades para mejorar la seguridad laboral, también introduce riesgos complejos que la legislación actual, liderada por el nuevo Reglamento de IA de la UE (RIA) y la Ley de Prevención de Riesgos Laborales (LPRL), busca equilibrar con un enfoque humanista", ha explicado Alarcón.
Responsabilidad penal
Si un accidente de trabajo o enfermedad profesional ocurre por un incumplimiento preventivo, las prestaciones económicas derivadas del siniestro se incrementarán entre un 30% y un 50% a cargo exclusivo de la empresa infractora. Esto ocurriría, por ejemplo, si de sustituye a un operario de vigilancia por una IA defectuosa en una planta industrial, derivando en un accidente mortal que era previsible evitar con supervisión humana.
El Código Penal sanciona el incumplimiento grave de las normas de prevención que ponga en peligro la vida o salud de los trabajadores. Esto no solo afecta al empleador, sino que puede extenderse a directivos o encargados que, por delegación, tuvieran la responsabilidad de evitar el riesgo.
Explica la profesora de la Universidad Rey Juan Carlos que con la IA, se deberá demostrar la relación de causalidad y la omisión de medidas por quienes tenían el deber de actuar.
Los trabajadores lesionados o sus familiares pueden reclamar una indemnización por daños y perjuicios al empleador, compatible con las prestaciones de la Seguridad Social y las sanciones penales.
Además de estas responsabilidades, la propia IA puede introducir riesgos antes inexistentes. Un brazo robótico con IA que aprende movimientos podría realizar algo imprevisto para lo cual la evaluación de riesgos tradicional no lo había preparado.
También surgen riesgos relacionados con la privacidad y la dignidad de los trabajadores. Sistemas que evalúan el bienestar mediante el análisis facial, de voz o biomarcadores emocionales están prohibidos en el puesto de trabajo por el RIA, ya que la constante monitorización del ánimo podría generar ansiedad y cohibición.
La medición de "comportamientos seguros" de los empleados, si bien podría justificarse como prevención, estaría absolutamente prohibida si se usa para penalizar o discriminar a trabajadores.
Relacionados
- El Supremo rechaza el recurso de la Asociación pola Defensa da Ría y vuelve a avalar la concesión a Ence hasta 2073
- El Congreso de los Diputados confirma la devolución de IRPF a los mutualistas: hasta 4.000 euros a cada jubilado a partir de esta fecha
- El Tribunal Superior de Justicia de Cataluña admite y estudiará si la multa por no ofrecer un alquiler social al arrendatario es constitucional
- Las sanciones a las empresas que falsean su sostenibilidad se agravan