Opinion legal

Inteligencia Artificial: Regular o no regular, ésa es la cuestión

Foto: Archivo

Un proverbio chino dice que "hay tres cosas que nunca vuelven atrás: la palabra pronunciada, la flecha lanzada y la oportunidad perdida". En esta coyuntura nos encontramos en la actualidad en relación al desarrollo de la IA, cuando debatimos acerca de si debe ser regulada o no. Regular o no regular, that is the question. Pronunciar un «NO» demasiado severo y restrictivo que frene el desarrollo de la mayor oportunidad tecnológica que se le ha presentado al ser humano en toda su historia, o lanzar la flecha de la innovación sin barreras, dando pie a consecuencias potencialmente devastadoras, de las que ya no habrá vuelta atrás. Dilucidar esa disyuntiva, es, en palabras de Nick Bostrom, "la tarea esencial de nuestra época". Pues, ahora que nos hallamos en los albores de una nueva era inexorable, debemos asegurarnos de que el desarrollo de la IA se realice adecuadamente.

No en vano, afirma el Presidente Putin que quien domine la IA será el amo del mundo. Mientras, Stephen Hawking ofrece un matiz aún más preocupante cuando decía que "mientras que el impacto a corto plazo de la IA depende de quién lo controla, el impacto a largo plazo depende de si se puede controlar en absoluto", pues es "posible imaginar que la IA se perfeccione a sí misma más de lo que los humanos lo hubieran hecho. Con ello, podría volverse más astuta que los mercados financieros, podría manipular a los líderes humanos o desarrollar armas inimaginadas".

En cualquier caso, y a pesar de este descomunal peligro latente, estamos ya inmersos en una carrera estratégica por lograr el control de la IA por parte de las naciones más poderosas del mundo (EEUU, China –que se ha fijado el objetivo de liderar a nivel mundial el avance de la IA para 2030- e incluso Emiratos Árabes Unidos – con el mismo objetivo, pero para 2031, y que ya posee un ministro de IA-). Y al mismo tiempo, las empresas tecnológicas punteras (de EEUU y China: Apple, Google, Amazon, Facebook, Microsoft, IBM, Baidu, Alibaba, Tencent) invierten cantidades desmedidas para ser los primeros en lograr el liderazgo en la tecnología de IA.

Pues se prevé que el volumen del mercado global de la IA superará los 127.000 millones de dólares y proporcionará 37.000 millones de dólares en beneficios en el 2025, y que su contribución a la economía global alcanzará los 16 billones de dólares en 2030. Para que nos hagamos una idea de la magnitud de esta última cifra, es superior al PIB nominal anual de China en 2017, que fue de 12,84 billones de dólares, y casi igual al de la UE, que superó los 17,2 billones de dólares. Por eso, Deloitte estima que la inversión en IA superará los 47.000 millones de dólares en 2020, y que el 85% de las interacciones con clientes se realizarán sin intervención humana ese mismo año.

Existen dos tipos de IA: lA Débil, que permite realizar de manera inteligente tareas muy específicas; e IA Fuerte, que permite aplicar inteligencia a cualquier ámbito o tarea, y como señala López de Mántaras,  "implicaría que un ordenador convenientemente programado no simula una mente sino que es una mente y por consiguiente, debería ser capaz de pensar igual que un ser humano". Aunque su inteligencia será diferente de la humana.

Para poder entrar en el debate, debemos conocer los riesgos que nos puede deparar el desarrollo de la IA. (i) la destrucción masiva de puestos de trabajo como consecuencia de la automatización de procesos y la robotización; (ii) los denominados emergent behaviors (comportamientos no previstos inicialmente por quien diseñó un determinado software), que pueden surgir cuando la IA interactúa con otros sistemas; (iii) los potenciales fallos en sus sistemas; (iv) la introducción de datos erróneos, o parciales, o de fuentes abiertas (sin controlar); (v) los potenciales usos incorrectos de dicha tecnología (o su uso por parte de criminales o terroristas); y (vi) el advenimiento de la IA Fuerte, que podría dejar "obsoleto" al ser humano y a las formas de vida biológicas, sustituyéndolas por las cibernéticas, y pudiendo desembocar en su extinción. Por todo ello, para paliar los riesgos, Elon Musk pide a los políticos una regulación en este ámbito "antes de que sea demasiado tarde".

Aparentemente, la magnitud de los riesgos no debería hacer dudar a nadie acerca de la necesidad de regular el desarrollo de esta tecnología y de sus futuros usos. No obstante, no es tan sencillo. Al fin y al cabo, ¿por qué ningún país tiene una ley sobre IA?

Hay voces cualificadas, como las de Kurzweil, Zuckerberg, Enrique Dans, o Alejandro Sánchez del Campo, que afirman que la regulación "frenará el desarrollo de la inteligencia artificial", y no sólo eso, sino que "una regulación genérica de la IA no sería efectiva ya que no hay una definición clara de lo que se entiende por inteligencia artificial y los riesgos son muy distintos y de ámbitos diferentes". Por ejemplo, EEUU no parece que vaya a dar un tratamiento jurídico completo a la IA, sino que "las categorías principales de temas legales relevantes a estos efectos serán: privacidad, fiscalidad, políticas de innovación, responsabilidad civil y penal, agencias, derecho laboral, licencias aplicables". Así, concluyen que "sólo deberíamos recurrir a la regulación si es estrictamente necesario y siempre a posteriori y después de evaluar todas las otras alternativas y el impacto que dicha legislación tendrá".

No obstante, como dice Stuart Russell, "el propósito de comprender y prevenir los riesgos de la IA es asegurar que podemos hacer reales los beneficios". Por ello, el controlar mediante regulación las investigaciones sobre IA no supone nada diferente de lo que se hizo en investigación genética, cuando se decidió en 1975 que no se permitiría diseñar genéticamente seres humanos. Simplemente se evitó lo que se consideró un peligro para la humanidad.

Afortunadamente, la UE ya ha dado los primeros pasos para avanzar en la regulación de la IA. Y a pesar de que la UE no cuenta todavía con una política común en esta materia, el pasado 19 de diciembre de 2018 la Comisión UE presentó el primer borrador con sus directrices para el desarrollo ético de la IA. Su objetivo es doble: asegurar el progreso tecnológico en este ámbito, mientras se respetan los valores fundamentales y los derechos humanos de los ciudadanos de la UE. Pues, "para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan poder confiar en ellos y saber que su privacidad es respetada", afirma Andrus Ansip, vicepresidente de la Comisión EU. No se pretende entorpecer la innovación, sino que la UE se convierta en un referente mundial en materia de "competitividad responsable".

Por ello, las directrices presentes en el borrador destacan dos pilares fundamentales para el desarrollo de la IA: (i) "Propósito ético", para que la IA respete los DDHH y la regulación vigente; (ii) "Robustez técnica", para que esté garantizado que la IA no cause un daño involuntario debido a la falta de pericia en su manejo, a pesar de que su uso fuera bienintencionado. En cualquier caso, no será hasta marzo de 2019 cuando se presente la versión definitiva del borrador, y sus principios serán sólo de carácter orientativo, pues no se desea que se conviertan en ley, sino que ejerzan de guía en la futura elaboración de legislación sobre IA en la UE.

Un elemento muy relevante que la Comisión UE también ha decidido impulsar es la "adopción de estrategias nacionales de IA en cada estado miembro, así como la creación de una nueva colaboración público-privada en este campo a nivel europeo". Pues, de cara a intentar revertir la triste situación de la UE en cuanto a liderar el desarrollo tecnológico de la IA, que nos sitúa muy por detrás de otros países, plantea como objetivo fundamental a partir de 2020 la inversión conjunta por parte de gobiernos y empresas de al menos 20.000 millones de euros anuales en investigación para IA.

La cuestión final es si la regulación legal será capaz de atenuar suficientemente los graves riesgos. La respuesta es que hay que desarrollar estrategias de control suplementarias a la regulación legislativa, como el code as law o regulation by design, las cuales deberían ser complementadas por lo que P. Benanti denomina "algor-ethics", o la creación de tecnologías de IA desde su diseño inicial como agentes morales, que siempre tengan como prioridad los objetivos, intereses, medios y la colaboración con los seres humanos. Para Benanti, la primera y fundamental directiva a implementar sería "no dañar".

Pero, según Stuart Russell, debemos ir más allá y llegar a construir sistemas de IA probadamente beneficiosos. La clave radica en el análisis que realiza Russell: la fuente más probable de los problemas radica en el fracaso en el alineamiento de valores; "es posible que, sin darnos cuenta, dotemos a las máquinas de objetivos que no se alinean correctamente con los nuestros". Por ello, propone que el campo de desarrollo de la IA se amplíe y pase de ocuparse exclusivamente de la inteligencia pura (independiente de objetivos concretos), a investigar y desarrollar sistemas probadamente beneficiosos para los humanos, "en lugar de construir sistemas que optimicen objetivos arbitrarios". Para ello, se deberá dotar a los sistemas de IA con una incertidumbre explícita respecto de los objetivos de los humanos. Así, las dudas de Hamlet serán las que hagan segura a la IA.

WhatsAppFacebookTwitterLinkedinBeloudBluesky