Opinión

La neutralidad tecnológica de la IA y su relación con el llamado "ethics dumping"

    Inteligencia Artificial | iStock

    Gerard Espuga, abogado y socio de Beta Legal

    Las predicciones o recomendaciones -estadísticas o probabilísticas- que realizan los sistemas de IA (entendiendo incluidos en el concepto también los modelos de IA, esto es, lo que hace funcionar el sistema) no son fruto de la casualidad. En ellas influyen los datos utilizados para entrenar el modelo, la codificación de inferencias o suposiciones y la visión subjetiva de los desarrolladores, así como los valores intrínsecos de una determinada comunidad o sociedad que se trasladan a través de "directrices éticas" en el desarrollo de los modelos de IA.

    El comportamiento del sistema está, por lo tanto, directamente relacionado con la fase de concepción y desarrollo del mismo, pudiendo trasladar todas las bondades o vicisitudes embebidas a los siguientes actores que participen en la "cadena de suministro", esto es, proveedores implementadores y, como no, usuarios, en los que cobran especial relevancia, por otra parte, las precauciones que se tomen para evitar el llamado sesgo de automatización, es decir, la tendencia de confiar excesivamente en estos sistemas.

    El ethics dumping (basura ética o dumping ético) se refiere, en el campo de la investigación, a la realización de estudios o actividades en un país con regulaciones menos restrictivas que las del país de origen en el que se promueve la investigación, esto es, la exportación de prácticas éticamente dudosas de un contexto privilegiado (o con mayores recursos) a uno con mecanismos de gobernanza más débiles (con menos recursos o con menor protección de derechos fundamentales). En un contexto más global, también aplicable a la IA, el fenómeno puede entenderse como un trasvase de la responsabilidad -ética- a un ámbito, contexto o colectivo, que carece de capacidades reales para su asunción durante el uso del sistema.

    Así, en el campo de la IA existe una práctica comunmente extendida a través de la que los desarrolladores, reguladores y responsables institucionales están trasladando sus decisiones éticas -y con ellas, su responsabilidad- a los usuarios finales, quienes, a menudo, no contamos con las herramientas necesarias para comprender, anticipar ni mucho menos corregir los impactos de estas tecnologías.

    Una de las manifestaciones más más visibles de ethics dumping ocurre en la fase de desarrollo de los sistemas de IA. Los valores, sesgos culturales y de todo tipo que integran los algoritmos suelen reflejar el entorno del desarrollador, no el de la comunidad que lo implementará. Por lo tanto, una herramienta diseñada en un contexto occidental puede acabar aplicándose en entornos donde sus efectos, esto es, sus decisiones, sean completamente distintas a las esperadas en el entorno de origen, incluso contraproducentes.

    Cuando un algoritmo, por ejemplo, reproduce sesgos estructurales, la víctima es el sistema y también la persona afectada. Y si la tecnología ha sido importada sin adaptación local, ¿quién responde por ese daño cuando los usuarios no tienen ningún tipo de posibilidad de modificar los datos de origen? Sin duda, una intervención humana rigurosa es fundamental. Piénsese en cómo los algoritmos de Facebook promovieron y amplificaron la violencia contra la población rohinyá en Myanmar (así lo afirmó Amnistía Internacional en un informe publicado en 2022).

    Parte del foco también debe ponerse en los marcos de autorregulación: directrices éticas bienintencionadas, pero tan amplias que, en la práctica, no vinculan a nadie. El resultado es una cadena de delegación sin control en la que el fabricante traslada la responsabilidad a quien compra, este a su equipo técnico y, finalmente, se descarga en el usuario, que apenas sabe que la herramienta funciona con criterios éticos preconfigurados y no consensuados. El problema no es nuevo, pero en el ámbito de la inteligencia artificial se agrava, porque la falta de transparencia algorítmica (son los llamados algoritmos de "caja negra") impide evaluar con claridad las decisiones que estos sistemas toman de forma automatizada y como han llegado a su formación.

    Por otro lado, también los marcos regulatorios pueden promover el ethics dumping cuando se imponen modelos de gobernanza que no consideran los contextos locales. La implementación de regulaciones únicas y centralizadas, sin procesos de participación local ni consulta de todos aquellos que usarán el sistema, puede acabar generando una falsa ilusión de cumplimiento ético que no responde a las realidades del entorno final.

    Revertir esta situación no es, seguramente, tarea fácil, pero ello debe pasar, como mínimo, por (i) la participación de las comunidades receptoras de los sistemas. Es imprescindible que las poblaciones que verán afectadas sus vidas por sistemas de IA participen en su diseño y adaptación. (ii) Deben establecerse mecanismos de rendición de cuentas claros. Las empresas deben identificar, de forma previa a la comercialización o despliegue de sistemas, quién será el responsable de los impactos éticos. Esta asignación debe ser transparente, documentada y, si es necesario, auditada. (iii) Las guías éticas y normativas deben permitir adaptaciones según los contextos sociales y culturales. No hacerlo es imponer modelos de responsabilidad que pueden acabar siendo injustos, por asimétricos.

    Concluyendo, ¿es realmente neutra la IA? La respuesta es clara, no. La tecnología, la IA en este caso, se ha alimentado de todos los valores, creencias y sesgos que tienen sus desarrolladores, así como los del contexto en el que se construyen y, consiguientemente, se han traspasado a los sistemas. Podemos decir, por tanto, que dichos sistemas responden como piensan sus creadores.