Parceria expandida da Nvidia e Meta sinaliza mudança na demanda de computação de IA

Durante anos, a Nvidia foi sinônimo de unidades de processamento gráfico (GPUs) de última geração, impulsionando avanços em jogos, ciência de dados e, agora, inteligência artificial. Mas os movimentos recentes da empresa revelam um foco crescente na satisfação das necessidades de um mercado mais amplo de IA – um mercado onde nem todas as aplicações requerem o hardware mais avançado e caro.

Além das GPUs: diversificando soluções de computação

A Nvidia não está mais vendendo apenas GPUs. Investimentos recentes em tecnologia de chips de baixa latência e a introdução de CPUs independentes sinalizam uma estratégia para capturar clientes que priorizam a eficiência em detrimento da potência bruta. Isto é especialmente relevante para a “IA agentic” – software que exige capacidade de resposta em tempo real, em vez de enormes conjuntos de dados de treinamento.

Esta mudança foi solidificada com o anúncio de ontem de um acordo multibilionário entre a Nvidia e a Meta. A gigante da mídia social comprará uma combinação de chips Nvidia, incluindo CPUs, para alimentar sua infraestrutura de IA em expansão. Esta parceria não é nova; A Meta planejou anteriormente adquirir 350.000 chips H100 até o final de 2024, com um total de 1,3 milhão de GPUs em seu arsenal até 2025.

A expansão mais recente verá a Meta implantar CPUs da Nvidia em escala junto com GPUs Blackwell e Rubin, otimizando seus data centers para treinamento e inferência de IA.

A ascensão das CPUs nas cargas de trabalho de IA

O que está impulsionando essa demanda por CPUs? A tendência é a IA agente. À medida que as aplicações de IA se tornam mais integradas aos sistemas em tempo real, as CPUs desempenham um papel crucial no gerenciamento do fluxo de dados e na garantia da capacidade de resposta. Um data center para OpenAI agora requer “dezenas de milhares de CPUs” para lidar com os enormes dados gerados pelas GPUs, uma necessidade que não existia antes do crescimento explosivo da IA.

No entanto, as GPUs permanecem dominantes. A compra de CPU da Meta é significativa, mas ainda é ofuscada pelas aquisições de GPU. A CPU serve como um componente de suporte, garantindo que a arquitetura orientada pela GPU não fique obstruída.

Competição e Diversificação

Os movimentos da Nvidia ocorrem no momento em que outros gigantes da IA diversificam suas fontes de computação. OpenAI, Anthropic e Google estão explorando chips personalizados ou parcerias com AMD e Cerebras para reduzir a dependência de um único fornecedor. A OpenAI, por exemplo, tem acordos com a Nvidia (potencialmente no valor de US$ 100 bilhões) e a AMD (até 6 gigawatts de chips), bem como um acordo de US$ 10 bilhões com a Cerebras.

A questão subjacente continua a ser a oferta. A procura por GPUs ainda supera a disponibilidade, obrigando as empresas a explorar alternativas sempre que possível. A recente aquisição da Groq pela Nvidia, uma startup de chips especializada em inferência de baixo custo, reflete essa pressão.

Investimento maciço da Meta em infraestrutura de IA

A Meta planeja gastar entre US$ 115 bilhões e US$ 135 bilhões em infraestrutura de IA este ano, acima dos US$ 72,2 bilhões do ano passado, ressaltando o compromisso da empresa com o crescimento impulsionado pela IA. A Nvidia há muito afirma que seu hardware suporta inferência junto com treinamento, com seus negócios divididos em cerca de 40% de inferência e 60% de treinamento há dois anos.

Concluindo, a parceria da Nvidia com a Meta significa uma mudança estratégica para atender às diversas demandas do mercado de IA. A empresa não está mais focada apenas em GPUs de última geração; ela está expandindo ativamente suas ofertas de CPU e solidificando sua posição como fornecedora de computação abrangente em um cenário cada vez mais competitivo.

попередня стаття17 Dollar Tree compra menos de US $ 5 que supera os preços de varejo
наступна статтяOrganizando com Segurança na Era da Vigilância: Um Guia Prático