Legal

Javier Puyol: "Si el desarrollo de la IA lo domina un pequeño número de empresas y gobiernos se exacerbará la desigualdad"

  • Revista de Buen Gobierno, Iuris & Lex y RSC
  • "La creciente dependencia de la comunicación y las interacciones de la IA podría disminuir la interacción humana"
  • "Inculcar valores morales y éticos a los sistemas, especialmente en toma de decisiones, supone un reto considerable"
Foto: Alberto Martínez

El cumplimiento normativo ha experimentado un notable desarrollo y se ha profesionalizado en los últimos años. En la actualidad la Inteligencia Artificial irrumpe en su función. Las cosas están cambiando.

Javier Puyol es especialista en Compliance y en nuevas tecnologías y sus libros son manuales de aprendizaje para las empresas.

¿Qué impacto se puede observar que tiene la IA sobre el cumplimiento normativo?

La función de Compliance tiene busca garantizar que una organización cumpla con todas las normativas legales, éticas y regulatorias aplicables. Esto incluye la prevención de delitos corporativos, la protección de los derechos de los empleados y clientes, el cumplimiento de normas medioambientales, financieras y de protección de datos, entre otras.

En este contexto, la inteligencia artificial (IA) se ha convertido en una herramienta para apoyar, optimizar y transformar la función de Compliance, permitiendo una gestión eficiente, precisa y proactiva. Compliance e IA interactúan y se complementan.

¿Qué actividades se verán fortalecidas?

La principal función del Compliance es asegurar que la empresa cumpla con todas las leyes, reglamentos y estándares aplicables a su sector, bien a nivel local, nacional o internacional. También, Identificar, evaluar y mitigar los riesgos legales, regulatorios y reputacionales a los que la organización está expuesta.

Esto incluye el diseño e implementación de controles internos para prevenir infracciones. En la misma línea está el monitoreo y la auditoría, así como el canal de denuncias, la formación, las relaciones con los reguladores y el reporte de infracciones graves. Todas estas funciones se pueden ver beneficiadas por el uso de la IA.

¿Cómo actuará la IA para mejorar la función del 'compliance officer'?

La IA ha revolucionado la manera en que la función de Compliance opera, facilitando la automatización, el análisis predictivo y la mejora de la eficiencia en la detección de riesgos y el monitoreo de actividades. Permite automatizar tareas repetitivas y administrativas que hasta ahora requerían mucho tiempo, como la revisión de contratos, la verificación de antecedentes de proveedores.

En sectores como el financiero, la IA se utiliza para analizar grandes volúmenes de transacciones en tiempo real y detectar patrones anómalos que podrían indicar actividades sospechosas, como el lavado de dinero o el fraude.

También, el uso de algoritmos de machine learning permite identificar riesgos antes de que ocurran. El monitoreo continuo de normas y actualizaciones legales reduce el error humano y optimiza recursos.

¿Permite actuar en la prevención de riesgos y en la detección de delitos?

Así es. Mediante el análisis de grandes conjuntos de datos históricos, la IA puede prever dónde pueden surgir riesgos futuros de incumplimiento. Esto permite actuar de manera proactiva en lugar de reactiva, desarrollando planes de mitigación y aplicando controles preventivos.

La IA es capaz de analizar datos sobre compras, pagos y otros procesos internos para detectar patrones que indiquen fraude, corrupción o sobornos. Al detectar anomalías en las transacciones o comportamientos atípicos, ayuda a evitar fraudes antes de que se produzcan.

Y, además, gracias a la IA, las auditorías pueden automatizarse para monitorear actividades en tiempo real. Así, se pueden implementar sistemas de control que revisen automáticamente las acciones financieras, alertando sobre actividades sospechosas o no conformes con las políticas internas o externas.

¿También puede ser una ayuda para el cumplimiento de la protección de datos?

La IA ayuda a las empresas a cumplir con normativas como el Reglamento General de Protección de Datos (GDPR), gestionando de manera más eficiente los datos personales. Los sistemas basados en IA pueden identificar qué datos deben protegerse, ayudar a su encriptación y garantizar su eliminación cuando ya no sean necesarios.

Pueden revisar contratos y documentos legales en busca de cláusulas que no cumplan con las normativas aplicables o que expongan a la organización a riesgos legales. Esta revisión automatizada acelera los procesos y reduce el margen de error.

También puede utilizarse para diseñar programas de formación en Compliance adaptados a las necesidades de cada empleado, analizando sus roles y el nivel de exposición al riesgo. Y se puede monitorear el progreso de la capacitación de los empleados de la empresa.

¿La IA tiene un riesgo en sí mismo para la función de 'Compliance'?

La IA presenta algunos peligros significativos, desde el desplazamiento de puestos de trabajo hasta problemas de seguridad y privacidad, y fomentar la concienciación sobre estos problemas nos ayuda a entablar conversaciones en torno a las implicaciones legales, éticas y sociales de la IA.

Así, la falta de transparencia en los sistemas, especialmente en los modelos de aprendizaje profundo que pueden ser complejos y difíciles de interpretar, es un problema acuciante. Cuando las personas no pueden comprender cómo un sistema de IA llega a sus conclusiones, se puede generar desconfianza y resistencia a adoptar estas tecnologías.

También, pueden perpetuar o amplificar inadvertidamente prejuicios sociales ante datos de entrenamiento sesgados o al diseño algorítmico. Para minimizar la discriminación y garantizar la equidad, hay que invertir en desarrollo de algoritmos imparciales y conjuntos de datos de entrenamiento diversos.

¿La privacidad y los dilemas éticos son los límites a tener en cuenta'?

Las tecnologías de IA suelen recopilar y analizar grandes cantidades de datos personales, lo que plantea problemas relacionados con la privacidad y la seguridad de los datos. Para mitigar los riesgos para la privacidad, debemos abogar por una normativa estricta de protección de datos y prácticas seguras de tratamiento de los mismos.

Por otra parte, Inculcar valores morales y éticos a los sistemas de IA, especialmente en contextos de toma de decisiones con consecuencias importantes, supone un reto considerable. Los investigadores y desarrolladores deben dar prioridad a las implicaciones éticas de las tecnologías de IA para evitar impactos sociales negativos.

Y, a medida que las tecnologías de IA se vuelven cada vez más sofisticadas, también aumentan los riesgos de seguridad asociados a su uso y el potencial de uso indebido.

Los piratas informáticos y los actores maliciosos pueden aprovechar el poder de la IA para desarrollar ciberataques más avanzados, eludir las medidas de seguridad y explotar las vulnerabilidades de los sistemas. La posible pérdida de control humano en los procesos críticos de toma de decisiones es un riesgo que está ahí.

¿La IA puede fomentar la concentración de poder y dependencia?

El riesgo de que el desarrollo de la IA esté dominado por un pequeño número de grandes empresas y gobiernos podría exacerbar la desigualdad y limitar la diversidad en las aplicaciones de la IA.

Fomentar el desarrollo descentralizado y colaborativo de la IA es clave para evitar concentración de poder. La dependencia excesiva de los sistemas de IA puede conducir a pérdida de creatividad, capacidad de pensamiento crítico e intuición humana.

¿Y cómo afectará al empleo?

La automatización impulsada por la IA puede provocar la pérdida de puestos de trabajo en varios sectores, sobre todo entre los trabajadores poco cualificados, aunque hay pruebas de que la IA y otras tecnologías emergentes crearán más puestos de trabajo de los que eliminarán.

A medida que las tecnologías de IA siguen desarrollándose y haciéndose más eficientes, la mano de obra debe adaptarse y adquirir nuevas habilidades para seguir siendo relevante en el cambiante panorama.

Esto es especialmente cierto para los trabajadores menos cualificados de la mano de obra actual. No obstante, no se puede ignorar que la IA tiene el potencial de contribuir a la desigualdad económica al beneficiar desproporcionadamente a las personas y empresas ricas.

Es más probable que las pérdidas de empleo debidas a la automatización impulsada por la IA afecten a los trabajadores poco cualificados, lo que provocará un aumento de la brecha salarial y reducirá las oportunidades de movilidad social.

La concentración del desarrollo y la propiedad de la IA en un pequeño número de grandes corporaciones y gobiernos puede exacerbar esta desigualdad, ya que acumulan riqueza y poder mientras las empresas más pequeñas luchan por competir.

Las políticas e iniciativas que promueven la equidad económica, como los programas de reciclaje profesional, las redes de seguridad social y un desarrollo inclusivo de la IA que garantice una distribución más equilibrada de las oportunidades, pueden ayudar a combatir la desigualdad económica.

¿Vamos hacia una deshumanización?

La creciente dependencia de la comunicación y las interacciones impulsadas por la IA podría conducir a una disminución de la empatía, las habilidades sociales y las conexiones humanas. Para preservar la esencia de nuestra naturaleza social, debemos esforzarnos por mantener un equilibrio entre la tecnología y la interacción humana.

El desarrollo de una inteligencia general artificial (AGI) que supere la inteligencia humana plantea preocupaciones a largo plazo para la humanidad. La perspectiva de la AGI podría tener consecuencias imprevistas y potencialmente catastróficas, ya que estos sistemas avanzados podrían no estar alineados con los valores humanos.

Para mitigar estos riesgos, la comunidad investigadora de la IA debe participar activamente en la investigación sobre seguridad, colaborar en la elaboración de directrices éticas y promover la transparencia en el desarrollo de la AGI.

Es primordial garantizar que sirva a los intereses de la humanidad y no suponga una amenaza.

Los marcos normativos suelen ir por detrás de los avances tecnológicos. ¿Otro peligro?

Es necesario desarrollar nuevos marcos jurídicos y normativos para abordar los problemas específicos que plantean las tecnologías de IA, como la responsabilidad y los derechos de propiedad intelectual. Los sistemas jurídicos deben evolucionar para seguir el ritmo de los avances tecnológicos y proteger los derechos de todos.

¿Pero quizás el primer y principal peligro vendrá de la manipulación y la desinformación?

Los contenidos generados por IA, como los deepfakes, contribuyen a la difusión de información falsa y a la manipulación de la opinión pública. Los esfuerzos para detectar y combatir la desinformación generada por la IA son fundamentales para preservar la integridad de la información en la era digital.

En un estudio de la Universidad de Stanford sobre los peligros más acuciantes de la IA, los investigadores afirman que los sistemas de IA se están utilizando al servicio de la desinformación en Internet, lo que les confiere el potencial de convertirse en una amenaza para la democracia y en una herramienta para el fascismo.

Desde los vídeos deepfake hasta los bots online que manipulan el discurso público fingiendo consenso y difundiendo noticias falsas, existe el peligro de que los sistemas de IA socaven la confianza social.

La tecnología puede verse apropiada por criminales, estados deshonestos, extremistas ideológicos o simplemente grupos de intereses especiales, con el fin de manipular a las personas para obtener ganancias económicas o ventajas políticas.

Los sistemas de IA, debido a su complejidad y a la falta de supervisión humana, pueden mostrar comportamientos inesperados o tomar decisiones con consecuencias imprevistas. Esta imprevisibilidad puede tener consecuencias negativas para las personas, las empresas o la sociedad en su conjunto.

Unos procesos sólidos de prueba, validación y supervisión pueden ayudar a los desarrolladores e investigadores a identificar y solucionar este tipo de problemas antes de que se agraven.

WhatsAppFacebookFacebookTwitterTwitterLinkedinLinkedinBeloudBeloudBluesky