Opinión
DeepSeek: EEUU innova, China copia y Europa regula
- Open AI les acusa de una 'destilación' o fuga de propiedad intelectual copiando su modelo íntegro
- A diferencia del americano, el asiático aprende a través del ensayo, error y recompensa
Diego García Puado
La Inteligencia Artificial (IA) ha experimentado un desarrollo exponencial en los últimos años, transformando la forma en que vivimos y trabajamos. En este contexto, DeepSeek, un modelo de lenguaje a gran escala (LLM – Large Language Model) desarrollado por una empresa china, ha irrumpido en el panorama global generando un intenso debate y provocando una caída general de los mercados financieros. DeepSeek ha logrado igualar la calidad y precisión de sus competidores occidentales, como OpenAI, Gemini o Perplexity, pero con una diferencia crucial: un coste de entrenamiento y computación significativamente menor. Este hecho plantea preguntas fundamentales sobre el futuro de la IA y el papel de los diferentes actores en su desarrollo.
¿Estamos ante una nueva revolución?, ¿China innovando? DeepSeek ha optimizado el proceso de entrenamiento de la IA, basando su enfoque en un sistema de autoaprendizaje donde el modelo se perfecciona a sí mismo. La idea es simple, pero poderosa: en lugar de decirle al modelo qué está bien o mal a través de datos etiquetados, se crea un entorno y unos mecanismos con los que el propio modelo aprende a través de ensayo, error y recompensa. En esencia, un sistema que se automejora.
Aunque todos los esfuerzos de la industria ya se encaminaban a la búsqueda de la eficiencia y la reducción de costes, y varias compañías estaban explorando enfoques similares, ha sido una empresa china quien lo ha conseguido, desafiando la hegemonía de Estados Unidos y creando las bases para tener modelos más accesibles, potentes y eficientes. A medida que la IA se vuelve más asequible, su adopción se extenderá a un mayor número de países, empresas y usuarios, lo que podría generar nuevas oportunidades de negocio y transformar la forma en que interactuamos con la tecnología. El lanzamiento del nuevo modelo de Deepseek está generando la idea que la eficiencia de este modelo puede generar una menor necesidad de computación (GPUs) y una disminución de la demanda de los chips más caros y avanzados, pero nada más lejos de la realidad. Aunque las acciones de Nvidia, el mayor diseñador y productor de estas unidades de procesamiento gráficas GPU (necesarias para el funcionamiento de estos modelos) bajaran un 17% el día del lanzamiento, los inversores ya han empezado a recobrar la confianza y en menos de una semana han recuperado el 11% de su valor.
Pero, si todo ha vuelto a la normalidad, ¿por qué tanto revuelo? La respuesta es que, a pesar de esta revolución, la situación actual tiene todo el potencial de transformar las relaciones geopolíticas y el orden mundial en su conjunto, suscitando preocupaciones sobre su impacto en la sociedad, la economía y la geopolítica. Sus principales detractores resaltan numerosos riesgos en el uso de esta tecnología china, principalmente debido a las dudas en la privacidad de los datos, la seguridad y la desinformación.
Para empezar, Deepseek no ha sido totalmente transparente con el coste del entrenamiento, proclamando orgulloso un coste de 5 millones de dólares, pero que solo corresponde con la etapa final de ajuste del modelo y no abarca todo el proceso completo. Por tanto, una verdad a medias. También hay muchas dudas sobre cómo han acortado drásticamente los tiempos de entrenamiento y de donde han sacado los datos necesarios. Desde Silicon Valley, compañías como OpenAI, han afirmado que DeepSeek muestra evidencias de que aprovechó los modelos de OpenAI para crear su propio modelo, en un proceso que se denomina "destilación", lo que sería una fuga de propiedad intelectual y una violación de los términos del servicio.
Estas acusaciones y dudas no solo vienen del Gobierno de Estados Unidos o de competidores. Como pasa con otros modelos de lenguaje, una de las principales inquietudes de usuarios y gobiernos de todo el mundo está relacionada con la privacidad y seguridad de los datos. Por ejemplo, el Gobierno italiano ha decidido recientemente bloquear el uso de Deepseek en el país, tras la solicitud de información sobre el tratamiento y recopilación de datos de la Autoridad Italiana de Protección de Datos a la compañía china. La respuesta de Deepseek ha sido que la compañía china no opera en Italia, que sus servidores están en china y que, por tanto, la legislación europea no les aplica. Cosa que es totalmente cierta, ya que no hay que olvidar que Deepseek está sujeta a la regulación china, y que, entre otras cosas, su ley de seguridad nacional permite al país oriental exigir a sus empresas que compartan datos con el gobierno. Por tanto, no solo hay un riesgo de utilización de nuestros datos por compañías privadas, sino por parte del gobierno chino. Esto se une a la falta de transparencia histórica del país y a las acusaciones de censura.
Ante este escenario, es fundamental que los usuarios, los responsables políticos y la industria en su conjunto aborden estas cuestiones de manera responsable para garantizar que la IA se utilice de forma ética y beneficiosa para la sociedad. Para ello, Europa se ha puesto a la cabeza en la regulación de la inteligencia artificial, promulgando una nueva ley (AI Act) que tiene por objetivo mejorar la legislación vigente en materia de derechos fundamentales y seguridad, a la vez que crea un ecosistema seguro para la adopción de la inteligencia artificial.