Opinion legal

Inteligencia Artificial al servicio de la Administración

Foto: Archivo.

Muchos confiamos en que la solución al caos se presente en forma de inteligencia artificial. En Estados Unidos, Google's DeepMind unit está investigando con técnicas de aprendizaje profundo las proteínas del virus de cara a poder desarrollar la vacuna. La Casa Blanca ha solicitado analizar con técnicas de machine-learning los 30.000 estudios relacionados con el coronavirus para entender mejor la letalidad del virus. En España se está planteando su uso, para gestionar, entre otros, la desescalada en las playas de Cataluña.

Europa es consciente de su utilidad y mantiene un doble objetivo, promover mediante inversión la adopción de este tipo de proyectos e impulsar la regulación de esta tecnología por las implicaciones éticas que tiene asociadas. De hecho, en febrero, la Comisión presentó el Libro Blanco de Inteligencia Artificial.

Son, somos conscientes de que, si la UE no impulsa y regula esta tecnología, existe un riesgo real de fragmentación en seguridad jurídica de los estados, por los riesgos para los derechos fundamentales que conlleva, incluidos los datos personales y la protección de la privacidad y la no discriminación.

En España salió de nuevo a la palestra la ética, o falta de ella, en proyectos relacionados con la inteligencia artificial en el Congreso CNIS (Congreso Nacional de Innovación y Servicios Públicos) del 10 y 11 de marzo, uno de los últimos congresos "físicos" a los que se pudo acudir. Se habló de sesgos discriminatorios en los algoritmos, de invasión de la privacidad en el reconocimiento facial, todo ello sin haber encontrado una solución para todos estos retos. Este congreso, que recoge las experiencias de la Administración Pública en la era digital, mostró como iniciativa pionera una del Gobierno de Navarra, que explicó el código ético que están desarrollando con un doble enfoque de protección y progreso.

Sin embargo, también se habló de otras iniciativas que se han llevado a cabo en la Administración y que han culminado en fracaso. En el Catastro, por ejemplo, realizaron un proyecto de uso de redes neuronales para determinar el valor de los inmuebles, pero no pudieron llevarlo a la práctica porque al tratarse de una "caja negra" no se podía explicar en el reglamento cómo se obtenían esos resultados y, por tanto, fue imposible introducirlo en el sistema tributario.

Se constató de nuevo que la Inteligencia Artificial tiene un enorme potencial en cualquier tipo de proceso público, más aún cuando hablamos del ámbito de la salud en la detección de enfermedades. Pero quedó claro que cuando se trata de determinar si se asignan, o no, recursos públicos (o impuestos) es fuente de polémica.

El Gobierno holandés, recientemente, ha tenido que retirar un algoritmo que había implantado para predecir si los ciudadanos iban a cometer fraude a la seguridad social porque violaba las leyes de derechos humanos por sentencia judicial. El tribunal se opone a la falta de transparencia sobre cómo funcionaba el algoritmo en la calificación de riesgo por ser "insuficientemente claro y controlable". En la sentencia se indica que el ciudadano tiene derecho a que la Administración le explique por qué y cuáles son los criterios para clasificarte o descartarte en determinado servicio público. Estos resultados, tan opacos, tienen unas consecuencias importantes en la vida de las personas.

El gran inconveniente es que los procesos que siguen los algoritmos y cualquier sistema que tome decisiones de manera automatizada, sobre todo los de aprendizaje profundo (deep learning), son complejos y no se puede trazar de manera trivial una relación entre los inputs y outputs que obtienen.

La Generalitat de Catalunya está impulsando también iniciativas en este sentido, como por ejemplo un Comité Ético del Dato. Además, en colaboración con Altran, ha puesto en marcha un proyecto para investigar diferentes técnicas que garanticen que las tecnologías de IA se apliquen de manera ética y centrada en el ser humano, evitando perpetuar los estereotipos que ya existen, la segregación social o cualquier otro tipo de discriminación, explicando el proceso por el que se toman las decisiones. La intención es establecer un marco de trabajo y sentar las bases para asegurar la equidad de cualquier sistema que tome decisiones de manera automatizada y garantizando su transparencia, haciéndolos más entendibles y explicables. Todo esto es algo que ya recoge el RGPD como aspectos imprescindibles.

Dado el aun incipiente grado de implantación de este tipo de sistemas dentro de la Administración, y en previsión de su crecimiento exponencial, creemos que es el momento ideal para fundamentar dichas bases antes de que sea demasiado tarde. Por ejemplo, se han revelado como aspectos clave el poder establecer criterios a la hora de contratar este tipo de servicios, fijando aquellos sobre qué información y cómo es importante recibirla, de cara a que la Administración pueda hacer el análisis y acreditar que todos los criterios de equidad y transparencia se han cumplido y poder hacerlos públicos.

Falta mucho camino por andar en el análisis de las repercusiones éticas de la Inteligencia Artificial, no solo en materia de transparencia, sino también en protocolos que regulen los sesgos en IA, o acreditaciones que eviten (en el caso de sesgos) o clarifiquen (en el caso de la opacidad) el proceso. Es una carrera de fondo en la que España y Europa tienen que seguir a la cabeza y tener claro que, si paras, te quedas fuera. Como en todas las carreras.

WhatsAppWhatsAppFacebookFacebookTwitterTwitterLinkedinlinkedin