
Nvidia es la historia de una compañía de nicho convertida en una empresa universal, casi de culto como Apple o Microsoft. Empezó a vender procesadores para videojuegos; entonces, comercializaba un solo producto en un único sector. Pero su éxito se ha basado en exportar la GPU, una materia prima básica en el mundo de la computación necesaria para procesar datos, a todas las industrias. Ahora, la compañía tiene clientes de todo tipo en cualquier rincón del mundo, dispuestos a pagar más por sus procesadores y a aguantar meses de lista de espera como peaje previo a recibir sus pedidos.
"En la compañía se llegó a la idea de crear un procesador gráfico de propósito general, que hiciera cosas útiles para la sociedad, no solo matar marcianos", resume Manuel Ujaldón, Catedrático de Arquitectura de Computadores en la Universidad de Málaga y embajador de Nvidia, en una entrevista con elEconomista.es, sobre uno de los momentos clave de la historia de la compañía. Este fue el primer paso de la empresa hacia lo mainstream.

Pero antes de eso, Nvidia pasó varios años buscando cómo revolucionar el mundo de los videojuegos. Los primeros gráficos eran muy elementales, solo había un puñado de efectos para animar las partidas y, en general, los juegos eran muy rudimentarios. La CPU -la unidad central de procesamiento-, el tipo de procesador que existía por entonces, era insuficiente para dar vida al gaming.
La industria se pasó años desarrollando chips que aguantaran gráficos en dos y tres dimensiones (2D y 3D) y trabajando en una GPU, un procesador específico para trabajar con imágenes. Tras varias propuestas, estas siglas aparecieron por primera vez en la PlayStation de Sony en los noventa. La consola no solo tenía en sus entrañas una CPU, sino que también incluía una GPU, lo que permitía mejorar la visualización y la experiencia de los jugadores. Sin embargo, Nvidia fue pionera comercializando la GPU al público. La firma japonesa se había limitado a concebirla como una de las piezas del dispositivo, pero la de Jensen Huang empezó a venderla como un producto separado, los modelos GeForce.
"Mark Harris, que en mi opinión es el culpable de bueno de lo que ha pasado, fue el primero en darse cuenta de que, si se podían programar los videojuegos para hacer efectos gráficos, también se podían computar productos de matrices, transformadas de Fourier o aplicaciones de propósito general", cuenta el científico malagueño sobre su compañero, un ingeniero que trabaja desde Australia y que anticipó a principios de siglo que las tarjetas gráficas podían hacer mucho más que matar marcianos.
La compañía estaba adentrándose en una segunda vida, que resultaría en el lanzamiento de CUDA. Es todo el ecosistema de software y hardware que permite usar las GPU para multitud de propósitos científicos. "Imagínate lo visionarios que fueron en ese momento", dice Ujaldón sobre la estrategia que entonces decidió seguir la compañía y que acabaría siendo esencial, años más tarde, para cosas tan sorprendentes como desarrollar la vacuna del ARN mensajero contra el coronavirus. Un esfuerzo que reunió a la federación computacional internacional y que implicó que Nvidia procesara más datos en 2020 que en todos los años previos juntos.
Él y otros de sus compañeros empezaron a programar algunas de esas aplicaciones para el mundo real, que permitían diagnosticar el cáncer, resolver patologías en los hospitales, realizar secuenciación genética, simulación cuántica, diseñar comunicaciones por radio o estudiar modelos meteorológicos vía procesamiento de datos en GPU.
"Eso te deja mucho más poso que haber programado el mejor videojuego de la historia. Yo he trabajado en hospitales en los que había listas de espera de cuatro meses para entregar el resultado a los pacientes y mejoré las cosas para hacerlas 100 veces más rápido. Eso significa que ahora le decimos a los pacientes que se vayan a tomar un café mientras esperamos el resultado de su prueba", comenta el ingeniero, que ha llevado la potencia de las GPU a algunos centros sanitarios de Estados Unidos y Australia como embajador de los productos de Nvidia.
Aunque la empresa con sede en Santa Clara lleva tres décadas mejorando sus procesadores gráficos y exportándolos a todos los ámbitos, se ha convertido en un fenómeno de masas no hace tanto tiempo. Poco a poco, ha ido colando sus procesadores a los gamers, a los científicos o a cualquier empresa o cliente que necesite chips para sus centros de datos, máquinas profesionales, vehículos, dispositivos electrónicos, etc. Tiene el 80% de cuota de mercado en ventas de GPUs.
Este año, la californiana ha acabado coronándose como la empresa más valiosa del mundo gracias a la inteligencia artificial (IA). Nvidia llevaba algo más de una década trabajando en esta tecnología cuando la IA se ha vuelto viral y aplicaciones como ChatGPT han alcanzado al pueblo llano. El paradigma de computación que ofrecen sus productos es justo lo que se necesita para procesar cantidades ingentes de datos. Una vez más, la empresa se había adelantado a la siguiente disrupción tecnológica.
"El paralelismo de datos permite procesar millones de datos simultáneamente. Nuestros procesadores superan ya los 10.000 cores o núcleos de computación y cada uno se encarga de procesar un dato individual, cosa que no puede hacer el paradigma de la CPU", explica el científico.
En el ámbito de la computación, este concepto (el paralelismo) se viene aplicando desde los años 80. Habitualmente, un problema grande se descompone en multitud de problemas minúsculos particionando los datos entre los cores. La GPU hace exactamente eso, mientras que la CPU descompone en unas pocas tareas que luego se ejecutan de forma secuencial.
Las GPUs permiten que todos los núcleos computacionales se dediquen a una misma tarea, mientras que en las unidades centrales cada tarea se procesa en un núcleo. La forma de acelerar el trabajo con GPU consiste en añadir más y más cores al chip, mientras que en la CPU esto enseguida encuentra sus limitaciones.

"Imagínate que una CPU tiene que lavar, planchar, barrer y fregar, ¿qué problema tiene eso? Que cuando quieres desdoblar y usar ocho cores o 12 cores, no hay más tareas del hogar. Solo las cuatro, poco más. Eso no es escalable y no puedes aplicar el procesador de 12 cores porque no hay tantas tareas. Muchos algoritmos científicos no tienen 12 tareas del hogar y enseguida se satura el paralelismo que te pueden ofrecer", apunta el malagueño.
"Nunca vas a tener un millón de tareas, pero sí un millón de motas de polvo dentro de la tarea 'barrer', que será lo que repartirás entre todos los cores. Y luego harás lo mismo con la tarea 'fregar', 'lavar' y 'planchar'. En la era del Big Data que vivimos ahora, el volumen de datos que hay es ingente para todo, nunca te faltan datos que repartir entre los cores. Eso sí es un modelo escalable. Siempre podrás comprar la máquina que tiene el doble de cores para ir el doble de rápido porque las motas de polvo desaparecen en la mitad de tiempo", dice para ilustrar cómo trabajaría una GPU frente a una CPU. Esta última no está pensada para absorber la enorme cantidad de información que sí soporta la tarjeta gráfica.
Nividia lleva más de diez años desarrollando productos compatibles con la IA, capaces de entrenar esta tecnología. La compañía también fue visionaria en su camino a la madurez y tenía las mejores GPU del mercado cuando la IA no era tan popular. En 2017, patentó una arquitectura que nadie más tiene. "En medio nanosegundo tú puedes completar 512 operaciones en cada core. Eso no tiene precedentes. No sirven otras plataformas. Solo las que tienen las Tensor Cores", asegura Ujaldón sobre la patente.
¿Talón de Aquiles?
Actualmente, Nvidia está metida de lleno en la tarea de acelerar la computación. El consejero delegado bromea: "Cuanto más compras, más ahorras". Se refiere a que cualquier empresa o institución tarda menos en procesar datos cuantos más equipos de la casa tenga, lo que implica ahorro de tiempo, energía y dinero.
Su principal competidora es AMD. Sin embargo, la reina del mercado coloca cuatro de cada cinco GPUs que se venden. Sus rivales están a gran distancia. Sin embargo, Nvidia no es invulnerable. Su talón de Aquiles puede estar en la condición cíclica de su negocio. Aunque es cierto que los procesadores se han convertido en elementos básicos, un mal ciclo macroeconómico o una crisis podría ralentizar la compra de equipos y bajar el ritmo frenético que lleva la compañía.
Empresas como Intel están intentando pisarle los talones y sacar productos igual de sofisticados. La firma de Pat Gelsinger está invirtiendo miles de millones de dólares en levantar nuevas fábricas de chips, además de destinar sus esfuerzos en I+D, algo clave en esta industria. Pero el trabajo que implica sacar adelante estos procesadores es complejísimo, requiere muchos años e inmensos recursos.
Mientras, la demanda de procesadores de Nvidia es insaciable. La firma diseña sus chips, pero los manda a fabricar a Taiwan Semiconductor Manufacturing Company (TSMC), la mayor fundición del mundo. Estas instalaciones no dan abasto, ya que, además, tienen pedidos de otras empresas, como, por ejemplo, Apple. Pese a que fabrican todo lo que pueden, hay más pedidos que capacidad de producción.
Fuera de Taiwán, otro foco está puesto en China. La guerra comercial entre EEUU y el país asiático puede acabar lastrando a ambas partes. Hasta ahora, la californiana ha sorteado el veto a Pekín, fabricando procesadores compatibles con las limitaciones de Washington. Pero los chips están en el centro de la lucha entre las dos potencias y se seguirán usando como arma arrojadiza.
Las disrupciones tecnológicas son difíciles de valorar a largo plazo y la IA no es una excepción. Nvidia ha estado subiendo como la espuma en bolsa y la gran pregunta es si este ascenso está justificado, si es razonable. Los inversores la han posicionado como la reina de la IA porque la compañía se ha anticipado al futuro y ha dado en la tecla exacta, prediciendo siempre la siguiente disrupción. Eso le ha llevado a rivalizar en el trono de Wall Street con Apple y Microsoft. Las tres tecnológicas se debaten por ser la compañía más valiosa del mundo, algo impensable para la de chips en sus orígenes.
"Yo no me atrevo a especular sobre cuál será el siguiente caballo ganador [en referencia al futuro de la tecnología], pero sí te digo que las dos apuestas principales de la compañía, CUDA a principios de siglo y la IA en la década pasada, han sido aciertos plenos. ¿Cómo han podido anticiparse tanto a lo que estaba por venir? Parece que tienen una bola de cristal", zanja.