Tecnología

La guerra de los semiconductores pasa por la nube: Microsoft lanza dos superchips contra Nvidia y Amazon

  • La firma quiere reducir su dependencia de Nvidia y reforzar su posición en la industria 'cloud'
Sistema integrado con los nuevos chip Maia de Microsoft. Micrososft.
Madridicon-related

En la pugna por el desarrollo de la Inteligencia Artificial, Nvidia constituye un actor clave al ejercer una posición dominante -investigada por la UE por supuesto monopolio- en el mercado de chips para destinados a IA. Sin embargo, Microsoft, que presentó el mes pasado un incremento del 27% interanual de sus beneficios gracias a esta tecnología, quiere cambiar las reglas del juego. La misma semana en la que Nvidia ha presentado el procesador gráfico H200, la firma fundada por Bill Gates ha dado a conocer dos nuevos chips personalizados con los que pretende reducir su dependencia de la compañía encabezada por Jen-Hsun Huang y, paralelamente, aumentar su competitividad respecto a Amazon Web Services, su rival directo.

Este miércoles, Microsoft presentó los nuevos semiconductores Maia y Cobalt. El primero tiene como objetivo potenciar las labores de computación de IA, así como desarrollar GPT, el modelo de lenguaje (Large Language Model, en inglés) que constituye el software de IA integrado en el servicio Azure OpenAI, creado en colaboración con la propia OpenAI. Se trata de un cambio importante, pues el modelo GPT emplea actualmente el chip H100 desarrollado por Nvidia. En relación al desacople de Nvidia, es preciso señalar que Microsoft anunció que en 2024 sustituirá los chips de esta firma por los de AMD para probar el modelo más avanzado de OpenAI: GPT 4.

Además, Maia permitiría reducir el coste de los servicios de IA de la firma, al optimizar las tareas y ser capaz de gestionar un mayor volumen de datos. Como consecuencia, se reduciría el precio de estos servicios, según señaló Scott Guthrie, vicepresidente ejecutivo del departamento de la nube de Microsoft, en declaraciones a Financial Times. El propio Guthrie indicó, además, que este chip mejoraría el rendimiento de Bing, Microsoft 365 y Azure OpenAI services.

Paralelamente, Ben Bajarin, director ejecutivo de Creative Strategies, afirmó en declaraciones a Reuters que Maia podría permitir la integración de los servicios de Microsoft en ordenadores y teléfonos cuando estos dispositivos tengan, en el futuro, la capacidad para almacenarlos y procesarlos. Hasta entonces, la firma encabezada por Satya Nadella tendría la opción de vender los servicios en la nube, una gran oportunidad para Microsoft ya que, según Bajarin, la empresa genera mucho dinero por cada usuario que consume dichos servicios.

Por su parte, Cobalt es un chip que opera como CPU que, al igual que Maia, permite gestionar un gran volumen de información. Ya ha sido testado para potenciar Teams, el servicio de mensajería profesional de Microsoft, y ahora la empresa está considerando la opción de habilitar un servicio al público para que los usuarios puedan emplear las funciones de Cobalt en sus operaciones en la nube. Un movimiento de estas características supondría la competencia directa con las series de chips 'Gravitation' de Amazon Web Services.

No hay duda de que Microsoft ha detectado un punto débil de Amazon. El mes pasado, la compañía fundada por Jeff Bezos comunicó que el departamento Web Services obtuvo, en el tercer trimestre de 2023, 23.060 millones de dólares frente a los 23.130 millones que indicaban las previsiones. Nadella quiere golpear duro en esta dirección, y con razón, ya que Microsoft Cloud cosechó 31.800 millones de dólares en ingresos: un incremento interanual del 24%.

Sin embargo, el desacople de Nvidia se antoja más complicado. La firma encabezada por Jensen Huang presentó el pasado lunes el chip H200, una nueva unidad de procesamiento gráfico superior al H100 que emplean actualmente los modelos GPT de OpeanAI, usados en Microsoft. Según la firma, la mejora clave de este nuevo chip es la integración de 141 GB de HBMR, la nueva generación de memoria de alta velocidad. Ello permitirá al microchip desarrollar una capacidad de "inferencia", permitiéndole generar textos, imágenes o predicciones en modelos de lenguaje de gran dimensión. Concretamente, Nvidia señala que el H200 podrá generar resultados casi dos veces más rápido que el H100, según indica un test realizado con el modelo de lenguaje de Meta.

Así las cosas, Microsoft ha optado por reforzar sus servicios en la nube al tiempo que ha optado por reducir su dependencia de Nvidia, proveedor clave en la industria de los chips. Paralelamente, la firma encabezada por Nadella ha movido ficha contra Amazon, en un momento en el que la empresa de Andy Jassy ha mostrado unos resultados lejos de los esperados en materia 'cloud'.

WhatsAppTwitterTwitterLinkedinBeloudBeloud