
Un día más en Silicon Valley. Corría 1993 cuando en una cafetería en San José (California, EEUU) tres jóvenes ingenieros compartían un desayuno que cambiaría para siempre el mundo de la tecnología. Jensen Huang, Chris Malachowsky y Curtis Priem trazaron entonces sobre una servilleta la visión de una empresa que revolucionaría primero los videojuegos y, tres décadas después, se convertiría en el arquitecto tecnológico de la era de la inteligencia artificial. Hoy, esta idea a boli sobre un papel blanco que, con el tiempo, terminaría en el fondo de un cajón llena de polvo, vale más de 4 billones de dólares en bolsa. Pero Nvidia ni son solo chips, ni trabaja sola: es un titán conformado por una intrincada red de proveedores y clientes que le han permitido alzarse como el gigante tecnológico más valioso del planeta.
La historia de este taiwanés es tan extraordinaria como la de la empresa que montó. Nacido en la isla asiática en 1963, emigró a Estados Unidos a los nueve años sin saber inglés. Tras empezar como lavaplatos y graduarse en ingeniería eléctrica por la Universidad de Oregón, trabajó en empresas como LSI Logic y AMD, donde identificó la ventanilla de oportunidad para colocarse en un mercado emergente como el de los videojuegos. Su visión era clara: los ordenadores del futuro iban a necesitar una potencia gráfica extraordinaria para procesar contenidos multimedia de alta calidad.
Con apenas 40.000 dólares de capital inicial, los tres jóvenes empresarios bautizaron a su empresa Nvidia, combinando las letras NV (next vision) con vid (video). El punto de inflexión llegaría en 1999 con el lanzamiento del GeForce 256, que Nvidia vendió como "la primera GPU del mundo". Esta unidad de procesamiento gráfico incluía motores de transformación e iluminación integrados, liberando a las CPU de tareas intensivas y estableciendo un nuevo punto de partida para los gráficos en tiempo real.
A partir de ahí, todo consistió en seguir innovando con generaciones sucesivas de GPU cada vez más potentes. La GeForce2 llegó en los 2000, y la GeForce3 en 2001 para, posteriormente, alumbrar la GeForce FX 500 allá por 2003 con la que se consolidaron en el mercado de los videojuegos. Sin embargo, el verdadero salto cualitativo llegó en 2006 con el lanzamiento de CUDA (Compute Unified Device Architecture), una plataforma que permitía utilizar las GPU para la computación en general.
En 2012, un equipo de investigadores de la Universidad de Toronto (Canadá), utilizó la GPU de Nvidia para entrenar AlexNet, una red neuronal que revolucionó el reconocimiento de imágenes. Google vio potencial a la idea y compró 40.000 GPU de Nvidia. Así, una década más tarde, cuando en 2022 llegó el ChatGPT, Nvidia reconoció ahí la mina que tenía ante sus ojos. El modelo GPT-3 y, posteriormente, sus sucesores, requerían una potencia computacional masiva que solo las GPU podía proporcionar de manera eficiente. Sus chips A100 y H100, originalmente diseñados para centros de datos, se convirtieron en los componentes más codiciados de la industria tecnológica. La demanda era tan intensa que Jensen Huang bromeaba sobre crear "fábricas de IA" para satisfacer las necesidades del mercado.
Ante el furor de los inversores, Nvidia superó los 2 billones de valor de mercado en febrero de 2024 y, pocos meses después, en junio, alcanzó los 3 billones. Ahora, ya vale más de 4 billones, un hito que nunca antes había conseguido alcanzar otra empresa en el mundo. Para los inversores, desde Generali Investments, piden seguir confiando y aclaran: "incluso a estos niveles, la acción no es cara".
La cadena de suministro, el pilar de Nvidia
Pero esta empresa no es un esfuerzo solitario, sino el resultado de una cadena de suministro meticulosamente construida que incluye a los fabricantes de semiconductores más avanzados del mundo. Taiwan Semiconductor Manufacturing Company (TSMC) se ha convertido en el pilar fundamental de la producción de Nvidia. Con compras que superan los 14.000 millones de dólares, según Bloomberg, TSMC representa casi el 33% de las inversiones totales de la estadounidense y el 13,05% de los ingresos. Una relación que trasciende más allá del intercambio de facturas: la taiwanesa fabrica los chips más avanzados de la empresa, incluyendo los revolucionarios procesadores Blackwell, utilizando tecnologías de proceso de 3 y 4 nanómetros. De hecho, tal es la importancia estratégica de la asiática en la cadena de suministro de Nvidia que, a raíz de las presiones arancelarias de Trump para relocalizar en EEUU la producción de semiconductores, TSMC está levantando una fábrica en Arizona para seguir sirviendo a Jensen Huang.
SK Hynix, también parte de esta red de proveedores, vendió a Nvidia productos por más de 8.000 millones de dólares en el último año. Es el fabricante líder de memoria HBM (High Bandwidth Memory) que alimenta las GPU de inteligencia artificial. La surcoreana es el único proveedor de la versión HBM3 empleada en el chip H100. La relación entre estas tecnológicas ilustra, a la perfección, la urgencia del mercado por la IA: hace unos meses se supo que Nvidia ha solicitado a la asiática acelerar la entrega de sus chips HBM4 en seis meses.

Empresas como Wistron, Fabrinet, Flex y Micron Technology completan este ecosistema en el que la primera ofrece especialización en el ensamblaje de sistemas completos centrados en las nuevas supercomputadoras en las que trabaja Nvidia y Micron aporta memorias y tecnología de almacenamiento. Hace nada iniciaba la producción masiva del chip HBM3E, específicamente, para las GPU H200 -diseñadas para potenciar la innovación en inteligencia artificial y computación de alto rendimiento-.
La demanda, clave del futuro
Del lado de la demanda, la base de clientes de Nvidia incluye a las empresas tecnológicas más poderosas del mundo. Microsoft es la compañía más importante para las cuentas de la americana con un gasto de 29.686 millones de dólares que representa el 18.87% de los ingresos totales de la empresa y todo por Azure, la que quiere convertir Satya Nadella en la plataforma en la nube líder para aplicaciones de inteligencia artificial. Pero esta alianza se extiende más allá de la simple compra de hardware.
Microsoft ha adquirido aproximadamente 485.000 chips de arquitectura Hopper de Nvidia, casi el doble que su competidor más cercano. Una inversión estratégica que está directamente relacionada con los 13.000 millones de dólares que la tecnológica ha invertido en OpenAI.
Además, Meta representa más de un 9% de los ingresos de Nvidia. La de Mark Zuckerberg está utilizando más de 100.000 GPU H100 para entrenar Llama-4, su modelo de lenguaje de gran escala. Sin embargo, la empresa también está desarrollando sus propios chips de entrenamiento de IA, lo que podría reducir su dependencia a largo plazo.
Y también está Amazon cuyo caso es fascinante. ¿Por qué? Porque Nvidia es competencia. Con un gasto de 11.832 millones de dólares en productos Nvidia, AWS ha tenido que equilibrar el desarrollo de sus propios chips (como Trainium2 y Graviton4) con la necesidad de ofrecer las GPU más avanzadas (las de Nvidia) a sus clientes. Esta relación refleja la realidad del mercado: aunque Amazon preferiría depender menos de Nvidia, la demanda de los clientes por acceso a las GPU más potentes obliga a AWS a mantener una relación estrecha con la empresa. Super Micro, Alphabet y Dell, también dan millones a Nvidia cada año por sus productos.
Ahora, la fe está puesta en la próxima generación Blackwell que promete otro salto cuántico en capacidades tecnológicas. Según informes de la industria, los chips B200 ofrecen un rendimiento 30 veces superior al H100 en tareas de GPT y están diseñados específicamente para la inteligencia artificial generativa a gran escala. Pero la competencia, poco a poco, se intensifica, la regulación se aproxima y las nuevas tecnologías podrían cambiar las reglas del juego. ¿Dónde quedará Nvidia? El tiempo dirá.