Durante años, Nvidia ha sido sinónimo de unidades de procesamiento de gráficos (GPU) de alta gama que impulsan los avances en juegos, ciencia de datos y, ahora, inteligencia artificial. Pero los movimientos recientes de la compañía revelan un creciente enfoque en satisfacer las necesidades de un mercado de IA más amplio, uno donde no todas las aplicaciones requieren el hardware más avanzado y costoso.
Más allá de las GPU: diversificación de las soluciones informáticas
Nvidia ya no solo vende GPU. Las recientes inversiones en tecnología de chips de baja latencia y la introducción de CPU independientes señalan una estrategia para captar clientes que priorizan la eficiencia sobre la energía bruta. Esto es especialmente relevante para la “IA agente”: software que requiere capacidad de respuesta en tiempo real en lugar de conjuntos de datos de entrenamiento masivos.
Este cambio se solidificó con el anuncio de ayer de un acuerdo multimillonario entre Nvidia y Meta. El gigante de las redes sociales comprará una combinación de chips Nvidia, incluidas CPU, para impulsar su infraestructura de inteligencia artificial en expansión. Esta asociación no es nueva; Meta planeó previamente adquirir 350.000 chips H100 para finales de 2024, con un total de 1,3 millones de GPU en su arsenal para 2025.
En la última expansión, Meta implementará las CPU de Nvidia a escala junto con las GPU Blackwell y Rubin, optimizando sus centros de datos tanto para el entrenamiento como para la inferencia de IA.
El auge de las CPU en cargas de trabajo de IA
¿Qué está impulsando esta demanda de CPU? La tendencia es la IA agente. A medida que las aplicaciones de IA se integran más en los sistemas en tiempo real, las CPU desempeñan un papel crucial en la gestión del flujo de datos y garantizar la capacidad de respuesta. Un centro de datos para OpenAI ahora requiere “decenas de miles de CPU” para manejar los datos masivos generados por las GPU, una necesidad que no existía antes del crecimiento explosivo de la IA.
Sin embargo, las GPU siguen siendo dominantes. La compra de CPU por parte de Meta es significativa, pero aún queda eclipsada por sus adquisiciones de GPU. La CPU sirve como componente de soporte, lo que garantiza que la arquitectura impulsada por la GPU no se bloquee.
Competencia y Diversificación
Los movimientos de Nvidia se producen en momentos en que otros gigantes de la IA diversifican sus fuentes de computación. OpenAI, Anthropic y Google están explorando chips personalizados o asociaciones con AMD y Cerebras para reducir la dependencia de un único proveedor. OpenAI, por ejemplo, tiene acuerdos con Nvidia (con un valor potencial de 100 mil millones de dólares) y AMD (hasta 6 gigavatios de chips), así como un acuerdo de 10 mil millones de dólares con Cerebras.
La cuestión de fondo sigue siendo la oferta. La demanda de GPU aún supera la disponibilidad, lo que empuja a las empresas a explorar alternativas siempre que sea posible. La reciente adquisición de Groq por parte de Nvidia, una startup de chips especializada en inferencia de bajo costo, refleja esta presión.
La enorme inversión de Meta en infraestructura de IA
Meta planea gastar entre 115.000 y 135.000 millones de dólares en infraestructura de IA este año, frente a los 72.200 millones de dólares del año pasado, lo que subraya el compromiso de la empresa con el crecimiento impulsado por la IA. Nvidia ha sostenido durante mucho tiempo que su hardware admite la inferencia junto con la capacitación; hace dos años, su negocio se dividía aproximadamente en un 40% en inferencia y un 60% en capacitación.
En conclusión, la asociación de Nvidia con Meta significa un cambio estratégico hacia la satisfacción de las diversas demandas del mercado de la IA. La empresa ya no se centra únicamente en GPU de alta gama; está ampliando activamente su oferta de CPU y consolidando su posición como proveedor informático integral en un panorama cada vez más competitivo.
