Tecnología

La batalla que decidirá el destino de la IA: el aterrizaje legal puede diluir la gran revolución económica

  • En la UE ya hay demandas contra las empresas por su uso de los datos de los ciudadanos
  • Se pueden abrir "cientos de frentes legales" totalmente inexplorados
  • Europa ha puesto en marcha la primera legislación, pero es solo el comienzo

"La Inteligencia Artificial tiene un enorme potencial para el mal" explicaba Warren Buffett en la reunión anual de accionistas de Berkshire Hathaway. Tras elogiar la promesa que supone la tecnología y reconocer que no tiene argumentos para negar la revolución empresarial y económica que puede desatar, el oráculo de Omaha contó una experiencia personal que le generó dudas respecto a su desarrollo. "Hace poco vi una imagen en el ordenador, era yo, con mi propia voz, mi ropa… Sinceramente, ni mi esposa ni mi hija hubieran visto la diferencia y estaban lanzando un mensaje que de ninguna manera provenía de mí".

Aunque tanto Greg Abel (su mano derecha y sucesor) como el mismo Buffett reconocieron que "aún es pronto para conocer el impacto", pusieron el foco en el potencial destructivo de la IA y que la consecuente regulación para limitar los daños podría ser el gran elefante en la habitación. El elemento con el que la industria no está contando y que podría limitar de manera muy sensible esta 'fiebre de la IA' que ha llevado a que Nvidia supere a Apple en bolsa tras dispararse un 724% desde enero de 2023. Y no solo es la evolución bursátil sino que las principales consultoras e instituciones del mundo reconocen que la implementación en diferentes áreas de esta tecnología puede sumar más de 15 billones de dólares a la economía mundial tan pronto como 2030.

La UE ha aprobado este mismo mes de marzo la primera legislación del mundo relativa a esta tecnología. Sin embargo, de momento se trata de un texto muy indiciario que no busca tanto una regulación integral, sino sentar las bases para que la utilización de la IA sea segura. Para lograr esto califica los diferentes sistemas en función de su peligrosidad y prohibiendo algunos. Un ejemplo de esto son los sistemas que se utilicen para la categorización biométrica de ciudadanos o que usen reconocimiento facial e identificación biométrica en tiempo real.

Además de obligar a que las empresas utilicen mecanismos de transparencia. Esta legislación comenzará a operar en 2026 pero no supondrá más que un punto de partida básico, los expertos y los propios altos cargos de Bruselas dan por hecho que estas medidas tienen que actualizarse de forma continua a medida que las aplicaciones de la tecnología se vayan abriendo paso en la economía. En ese sentido, el texto legal supone un primer marco desde el que trabajar, una batalla 'innovación a innovación' que se extenderá a todo el mundo (con sus propios textos legislativos) donde podría decidirse la trascendencia de la 'revolución IA'.

EEUU, por su parte, ha aprobado una legislación express a través de una Orden Ejecutiva que exigía transparencia a estas compañías. Entre otras medidas se especificaba un etiquetado para conocer qué contenidos son producidos por IA y cuales no. Posteriormente, se comenzó a debatir en el Congreso una legislación integral que especifique como se harán cumplir los principios de esa orden. El proyecto, presentado en abril, obligaría a estas empresas a cuidar aspectos como la propiedad intelectual, el uso de datos privados o un correcto etiquetado de contenidos. Aunque, también supone solo una primera aproximación para poder poner un marco legal definido a la revolución que supone esta tecnología.

El mismo Edward Snowden defendió en el evento SuperAI que es precisamente la nueva legislación el gran problema que puede destrozar las previsiones de este nuevo sector. "El pánico por la seguridad de la IA es algo realmente preocupante". Para el consultor tecnológico conocido por sus macrofiltraciones de la Agencia Nacional de Seguridad (NSA) y su posterior huída a Rusia, afirmaba que, aunque la opción inicial parecía ser dejar 'florecer' la tecnología con cierta libertad, ahora "los países están preparando una auténtica presa legal" que puede contener su crecimiento y provocar un estancamiento.

"El desarrollo de la IA se ha ido desacelerando o limitando debido a los riesgos inherentes a esta nueva tecnología"

Emma Galindo, directora Responsible AI de Accenture, reconoce en declaraciones a elEconomista.es que "el desarrollo de la IA se ha ido desacelerando o limitando debido a los riesgos inherentes a esta nueva tecnología". En ese sentido se estaría dando "un viaje continuo de evolución y mejora", dado que "está saliendo de la perspectiva de laboratorio en la que lleva años inmerso para trasladarse a un modelo industrial". De modo que va a exigir que todos los actores involucrados tengan un marco legal claro

Respecto a la expansión de la IA y la regulación posterio, desde Accenture explican que "la industria seguirá sofisticando los modelos y algoritmos, dará mayor robustez a los modelos y creará estándares para garantizar seguridad". A la larga esto puede ser bueno porque "ayudará a que muchas inversiones que no se están liberando por miedo a invertir en industrias sin soporte legal se desplieguen".

En cualquier caso, califican la nueva ley europea como "incipiente pero muy ambiciosa". Galindo prosigue alegando que "establece un marco legal para proteger los derechos de las personas". Es por ello que "en Los próximos años la ley se irá actualizando y veremos como se añaden nuevos casos o algunos incluidos se ajustarán".

En cualquier caso, esta nueva realidad a la que se enfrenta el sector genera que a medida que los riesgos y casos derivados de la Inteligencia Artificial empiecen a manifestarse, la justicia y los legisladores deben ir limando los problemas legales que deriven de la implementación en la economía de la IA, que aún está en una etapa muy incipiente.

Se abren cientos de frentes legales

Aunque aún la 'teoría' legal de Bruselas tiene que chocar con la práctica, diversos abogados están advirtiendo de que no será un proceso fácil y que, de hecho, la IA supone una auténtica revolución legal para todo el sistema jurídico de Europa y del mundo. Fernando Navas, de Navas&Cusí Abogados se muestra contundente: "La IA es una herramienta de destrucción masiva". El punto más claro es el espacio que generan para la mejora de las estafas pues "facilitan mucho este delito".

En ese sentido este sería un desafío más tradicional pues, en su opinión, la solución sería una mayor pena en este tipo de delito y más recursos para encontrar a sus responsables, lo que no cambia mucho el panorama actual. Sin embargo, abre la puerta a un caos dado que "hay cientos de frentes legales que pueden abrirse en lo referido a responsabilidad". Navas pone el ejemplo de coches autónomos con IA, si hay un accidente derivado de su acción "¿quien es el responsable? Hay un agujero legal en ese sentido que puede extender a errores en traducciones automáticas que conlleven pérdidas o delitos, resúmenes… etc".

Respecto a las compañías, el experto ve otro gran frente que puede limitar mucho su potencial económico cuando se enfrenten a los primeros problemas legales: los datos. Tanto EEUU como las autoridades de la UE han abierto investigaciones de miles de millones de dólares a empresas como Meta (instagram, Whatsapp.. etc), Apple o Alphabet (Google) por utilizar y recopilar datos de los usuarios De hecho la UE tiene muy restringido la utilización de los mismos en el Reglamento General de Protección de Datos (RGPD).

"Hasta ahora han utilizado todo tipo de datos y es muy posible que veamos grandes investigaciones"

En ese sentido los modelos de IA utilizan datos de los usuarios para mejorar sus procesos y crecer. La consultora FORLOPD explica que "la mayoría de los modelos, en especial los generativos, utilizan grandes volúmenes de datos para aprender y tomar decisiones… entre ellos muchos personales y de carácter sensible". Esto es algo básico para su desarrollo y clave para alcanzar su máximo potencial y requiere un equilibrio muy complejo a nivel legal.

Navas añade que "hasta ahora han utilizado todo tipo de datos y es muy posible que veamos grandes investigaciones". De hecho este no es un problema para el que haya que esperar mucho, este mismo jueves Meta ha recibido denuncias ya de 11 países europeos precisamente por el uso de datos de su IA. Según destacaba Reuters un grupo de denunciantes llamado NOYB ha pedido más control contra la tecnología de la firma de Zuckerberg por utilizar publicaciones personales e imágenes privadas o datos de seguimiento en línea para potenciar su tecnología IA. La asociación afirma que que, en virtud a la ley paneuropea podría recibir una multa de hasta el 4% de la facturación total de la compañía.

En cualquier caso, el abogado señala una amenaza fundamental para la competencia en el sector. Pues los proyectos que aparecieron desde el comienzo, ya se han alimentado de datos de forma masiva para crecer y "no cambiará mucho su evolución pues ya no hay mucho más que necesiten para seguir progresando, teniendo otras fuentes que puedan ser legales". Sin embargo "esto puede debilitar los proyectos más nuevos que no tengan esa ventaja estratégica". Sin embargo, la única forma de que una regulación que sea contundente para proteger los datos de los usuarios no sea tan dañina para el desarrollo de nuevos actores es que "se de un entorno totalmente democratizado".

La revolución económica de la IA

Todos estos problemas comprometen el desarrollo de una tecnología que puede suponer la próxima revolución económica y empresarial. Desde PwC explican que la IA "tiene el potencial de transformar por completo la productividad y el PIB de la economía global si se da una inversión estratégica". La consultora cree que solo hasta 2030 ya podría aportar cerca de 15,7 billones de dólares a la economía mundial con 6,6 billones directos por el impacto de la mejora de productividad que provocarán las herramientas basadas en esta tecnología.

Desde Mckinsey dan cifras similares aunque algo inferiores. La IA sumaría 13 billones de dólares a la economía del mundo generando por sí misma un crecimiento extra del 1,2% cada año. "Será una de las piezas angulares de muchas industrias como los centros de datos, además la propia OCDE cree que se podrá implementar para optimizar prácticamente todas las actividades industriales, desde la optimización de sus sistemas hasta la mejora de la investigación". Sin embargo la firma reconoce los riesgos y alerta de que "no hay un consenso sobre cómo aterrizarán los problemas derivados de la IA, pero se necesitarán unas políticas y regulaciones que mantengan bajo control su lado negativo".

WhatsAppTwitterTwitterLinkedinBeloudBeloud