Legal

La inteligencia artificial transforma el papel de los consejos de administración

  • Se sepa o no en  la empresa todo el mundo usa la IA con permiso o sin él
  • Plantea grandes desafíos éticos, como la equidad, transparencia ...
     
  • ...y discriminación algorítmica
Oscar García-Velasco, Isabel Reija y Ana Buitrago en la mesa de ponencia de la jornada de trabajo de Amrop. Foto: eE

La aparición de la inteligencia artificial (IA) generativa ha transformado el papel de los consejos de administración de manera significativa. De un enfoque centrado en la adopción de tecnología y la gestión de riesgos tradicionales, han pasado a una supervisión mucho más estratégica y especializada, con una mayor atención a las implicaciones éticas, regulatorias, de riesgos y de talento que la IA conlleva, según las conclusiones de la jornada de trabajo sobre El Impacto de la IA en los consejos de administración, organizada por Amrop España, firma de búsqueda de ejecutivos, evaluación de consejos y asesorías de liderazgo, celebrada en Madrid, con asistencia de secretarios de consejos de administración.

Tal y como informa la revista de Buen Gobierno, Iuris & Lex y RSC de elEconomista, según ha explicado Oscar García-Velasco, Managing partner de Amrop España, los consejos de administración de las empresas deben adoptar una postura de equilibrio al abordar la implementación de la inteligencia artificial (IA) entre la innovación con la prudencia y moderación, asegurándose de aprovechar las oportunidades que ofrece la IA, mientras gestionan de forma efectiva los riesgos y desafíos asociados.

"Una adopción excesivamente rápida o sin evaluación adecuada puede exponer a la empresa a riesgos innecesarios, mientras que una adopción demasiado lenta puede hacer que la empresa pierda oportunidades competitivas", ha señalado Isabel Reija, socia de Amrop España. Ana Buitrago, consejera independiente en varias empresas y senior advisor de Innovación, Transformación y LegalTech en PWC Legal, ha razonado que "se sepa o no en el interior de la empresa, todo el mundo usa la IA con permiso o sin él.

Es muy posible que se estén incumpliendo las regulaciones del tratamiento de datos y violando la propiedad intelectual sin saberlo, lo que supone un grave riesgo tanto económico, por las sanciones, como reputacional, por la pérdida de credibilidad de la empresa ante los accionistas, los clientes y los trabajadores, mermando la capacidad de atraer el talento joven necesario. Poe ello, es necesario contar con un mapa de riesgos y cumplir el decálogo de riesgo tecnológico".

Mejoras potenciales y riesgos

Antes de adoptar cualquier tecnología de IA, los consejos deben evaluar cómo afectará a los diferentes aspectos del negocio (operaciones, finanzas, clientes, empleados) y si es coherente con la estrategia general.

"Este órgano de gobierno debe actuar como un facilitador estratégico de la innovación, pero sin abandonar enfoque de moderación y prudencia. La definición de un modelo de gobierno adecuado a los riesgos analizados, así como su actualización constante, es una función Fundamental. Y, además, como esta tecnología avanza día a día; es fundamental evaluar los resultados, desarrollar capacidades y profundizar en su uso", ha asegurado Ana Buitrago.

No se puede desconocer que la IA tiene el potencial de mejorar la eficiencia, la productividad y la toma de decisiones en muchas áreas del negocio. Los consejos deben estar abiertos a adoptar tecnologías emergentes, impulsando iniciativas que creen valor para la empresa. Sin embargo, la IA también conlleva riesgos relacionados con la seguridad de los datos, el sesgo algorítmico, el cumplimiento regulatorio y los posibles daños reputacionales. Por tanto, es prudente empezar con proyectos piloto que permitan evaluar el impacto real de la IA en pequeñas áreas del negocio antes de expandir su uso.

García- Velasco ha comentado también que la IA permite procesar grandes volúmenes de datos y generar análisis avanzados para apoyar la toma de decisiones. Esto puede ayudar al consejo a evaluar el rendimiento de la empresa, identificar riesgos y oportunidades, y prever tendencias del mercado. La adopción de IA también reduce el tiempo y esfuerzo necesarios para analizar la información.

Los consejos deben realizar revisiones regulares del rendimiento de las tecnologías de IA adoptadas, monitoreando los resultados e identificando cualquier problema o desviación que pueda surgir. Y, además, deben exigir que las decisiones tomadas por sistemas de IA puedan ser explicadas y justificadas, garantizando la responsabilidad en caso de fallos. Esto incluye supervisar las inversiones en IA, la implementación de proyectos y el retorno de la inversión. Los consejeros tienen que cuestionar y evaluar cómo la IA está siendo utilizada para mejorar la competitividad y optimizar operaciones.

"El uso de IA plantea grandes desafíos éticos, como la equidad, la transparencia y la discriminación algorítmica. Por ello, los miembros de los consejos deben asegurarse de que la empresa se adhiera a principios éticos sólidos en todas sus iniciativas de IA", ha explicado García-Velasco. Estas nuevas exigencias hacen que el órgano de gobierno de la empresa deba asegurarse de que sus miembros estén capacitados en temas de IA.

Uno de los principales roles del consejo es supervisar los riesgos éticos y de cumplimiento asociados con el uso de la IA. Esto implica evaluar cómo la empresa utiliza la IA para garantizar que se respeten los principios de transparencia, privacidad, no discriminación y equidad. Los consejeros también deben estar al tanto de las regulaciones locales e internacionales en torno a la IA, como las leyes de protección de datos.

También deben tener en cuenta los riesgos inherentes al uso de la IA, como errores en los algoritmos, falta de transparencia (la denominada caja negra de la IA, producida por la dificultad de entender los algoritmos del machine learning o deep learning, son difíciles de entender para los humanos), sesgos en los datos y fallos en la ciberseguridad. Esto implica la necesidad de un monitoreo constante y evaluaciones periódicas del rendimiento de las soluciones de IA.

Las nuevas figuras de apoyo al consejo

Para Isabel Reija "es preciso crear un marco teórico un marco teórico que les ayude a entender las funcionalidades, las limitaciones y los riesgos. El uso de la inteligencia artificial debe estar alineado con la estrategia de la compañía en diversas áreas, como tecnología, capital humano o sostenibilidad, entre otras muchas". A este respecto, García Velasco ha indicado que "una buena Gobernanza de IA propicia la innovación y no lo contrario, por lo que hay que tener en cuenta que no es obligatoria aún, pero no tardando mucho lo será. Debe prevenir los riesgos legales tanto para la corporación como para los miembros del consejo".

Esto puede implicar la contratación de expertos en la materia o la organización de programas de formación para directivos. Y, por otra parte deben tener conocimiento suficiente para garantizar que el uso de IA en la empresa cumpla con las leyes y regulaciones vigentes, además de estar alineado con los principios éticos de la empresa. Por ello, es necesario crear comités o estructuras de gobernanza de IA dentro de la empresa, como una Comisión de IA o una junta consultiva especializada, que supervise de manera adecuada su desarrollo y uso.

En este caso, juega un papel fundamental la figura del Chief AI Officer (CAIO), considerado el mejor defensor de los consejos, que a su vez debe complementarse con las labores del Chief Ethical Officer (CEO), que asesoren al consejo sobre las decisiones clave relacionadas con IA.

El CAIO integra tecnologías de IA en la estructura operativa y procesos de la organización, con el objetivo de mejorar la eficiencia, la productividad y la innovación. Crea y ejecuta un plan para implementar la IA en diferentes áreas del negocio, gestiona el desarrollo de soluciones y proyectos basados en IA y debe colaborar con otros departamentos de la empresa para asegurar que la IA se alinee con los objetivos generales de la empresa.

Además. debe garantizar que las aplicaciones de IA respeten las normativas y consideren aspectos éticos, como la privacidad y la equidad. Y, entre sus cometidos esta la identificación de nuevas oportunidades para el uso de IA en los diversos productos, servicios y procesos de la empresa.

Otro cargo que se está imponiendo en las grandes empresas, fundamentalmente en Estados Unidos, es la del Chief Data Officer (CDO), que se encarga de la gestión de datos dentro de la empresa, incluyendo la recolección, gobernanza, calidad, seguridad y análisis de los datos. El CDO se debe asegurar de que los datos sean accesibles, limpios y utilizados adecuadamente para apoyar las decisiones empresariales.

El CAIO está más enfocado en la aplicación de inteligencia artificial para mejorar los negocios, mientras que el CDO se centra en la gestión y gobernanza de los datos. Ambos roles son cruciales en organizaciones que desean aprovechar al máximo el potencial de los datos y la IA.

Para García-Velasco, esta figura profesional debe ser un innovador, con un conocimiento suficiente de tecnología y de legislación, además de un gran comunicador para explicar a diferentes niveles los cambios que se han de introducir, los porqués de estas decisiones y los riesgos a asumir. No obstante, la característica más destacable de un CAIO debe ser la de tener un gran nivel de ética para evitar que se aprueben las cosas por presiones.

Los ponentes han negado que la adopción de la IA vaya a ir en detrimento de la empleabilidad. Sin embargo, sí que afectará a las tareas repetitivas, que pueden ser automatizadas por la IA, como por ejemplo, en la revisión de documentos. Este nuevo fenómeno no va en detrimento del talento humano, sino que lo potencia.

La relación de la Comisión de IA y la de 'Compliance'

La relación entre la comisión de IA, la comisión de 'Compliance' y la comisión de ética debe ser estrecha y colaborativa, ya que estas tres áreas son fundamentales para garantizar que la implementación y el uso de la IA en las empresas sea legal, ética y conforme a los valores de la organización. La comisión de 'Compliance' es responsable de asegurar que la empresa cumpla con todas las normativas y leyes aplicables, incluidas las que afectan al uso de IA, como la protección de datos, regulaciones de privacidad, y leyes sectoriales.

La comisión de IA debe trabajar de la mano con 'compliance' para garantizar que los proyectos y tecnologías de IA respeten estas normativas desde su diseño hasta su implementación. Por tanto, la comisión de IA debe proporcionar acceso a sus sistemas y herramientas para que la de 'compliance' pueda evaluar los riesgos inherentes y verificar la transparencia y responsabilidad de los algoritmos.

Esto incluye evaluaciones de impacto regulatorio, sobre todo en sectores regulados. La comisión de IA debe trabajar con la de ética para desarrollar e implementar un marco ético que guíe el diseño y uso de algoritmos y proporcionar a la de ética una visión clara de que los sistemas sean transparentes y explicables para todas las partes interesadas.

WhatsAppFacebookTwitterLinkedinBeloudBluesky