La partnership ampliata tra Nvidia e Meta segnala un cambiamento nella domanda di elaborazione AI

La partnership ampliata tra Nvidia e Meta segnala un cambiamento nella domanda di elaborazione AI

Per anni, Nvidia è stata sinonimo di unità di elaborazione grafica (GPU) di fascia alta che alimentano i progressi nei giochi, nella scienza dei dati e, ora, nell’intelligenza artificiale. Ma le recenti mosse dell’azienda rivelano una crescente attenzione nel soddisfare le esigenze di un mercato dell’intelligenza artificiale più ampio, in cui non tutte le applicazioni richiedono l’hardware più all’avanguardia e costoso.

Oltre le GPU: diversificare le soluzioni di elaborazione

Nvidia non vende più solo GPU. I recenti investimenti nella tecnologia dei chip a bassa latenza e l’introduzione di CPU autonome segnalano una strategia per catturare i clienti che danno priorità all’efficienza rispetto alla potenza pura. Ciò è particolarmente rilevante per l’“intelligenza artificiale”: software che richiede reattività in tempo reale anziché enormi set di dati di addestramento.

Questo cambiamento è stato consolidato con l’annuncio di ieri di un accordo multimiliardario tra Nvidia e Meta. Il colosso dei social media acquisterà un mix di chip Nvidia, comprese le CPU, per alimentare la sua infrastruttura AI in espansione. Questa partnership non è nuova; Meta aveva precedentemente pianificato di acquisire 350.000 chip H100 entro la fine del 2024, con un totale di 1,3 milioni di GPU nel suo arsenale entro il 2025.

L’ultima espansione vedrà Meta implementare le CPU Nvidia su larga scala insieme alle GPU Blackwell e Rubin, ottimizzando i suoi data center sia per l’addestramento dell’intelligenza artificiale che per l’inferenza.

L’aumento delle CPU nei carichi di lavoro AI

Cosa sta guidando questa domanda di CPU? La tendenza è l’intelligenza artificiale agente. Man mano che le applicazioni IA diventano sempre più integrate nei sistemi in tempo reale, le CPU svolgono un ruolo cruciale nella gestione del flusso di dati e nel garantire la reattività. Un data center per OpenAI ora richiede “decine di migliaia di CPU” per gestire l’enorme quantità di dati generati dalle GPU, una necessità che non esisteva prima della crescita esplosiva dell’intelligenza artificiale.

Tuttavia, le GPU rimangono dominanti. L’acquisto di CPU da parte di Meta è significativo, ma è ancora sminuito dalle acquisizioni di GPU. La CPU funge da componente di supporto, garantendo che l’architettura basata sulla GPU non subisca colli di bottiglia.

Concorrenza e diversificazione

Le mosse di Nvidia arrivano mentre altri giganti dell’intelligenza artificiale diversificano le loro fonti di elaborazione. OpenAI, Anthropic e Google stanno esplorando chip personalizzati o partnership con AMD e Cerebras per ridurre la dipendenza da un unico fornitore. OpenAI, ad esempio, ha accordi sia con Nvidia (potenzialmente del valore di 100 miliardi di dollari) che con AMD (fino a 6 gigawatt di chip), oltre a un accordo da 10 miliardi di dollari con Cerebras.

Il problema di fondo resta l’offerta. La domanda di GPU supera ancora la disponibilità, spingendo le aziende a esplorare alternative ove possibile. La recente acquisizione di Groq da parte di Nvidia, una startup di chip specializzata in inferenza a basso costo, riflette questa pressione.

Massiccio investimento di Meta nell’infrastruttura AI

Meta prevede di spendere tra i 115 e i 135 miliardi di dollari quest’anno in infrastrutture di intelligenza artificiale, rispetto ai 72,2 miliardi di dollari dell’anno scorso, sottolineando l’impegno dell’azienda per una crescita guidata dall’intelligenza artificiale. Nvidia sostiene da tempo che il suo hardware supporta l’inferenza insieme alla formazione, con la sua attività divisa per circa il 40% inferenza e il 60% formazione due anni fa.

In conclusione, la partnership di Nvidia con Meta significa un cambiamento strategico verso la soddisfazione delle diverse richieste del mercato dell’intelligenza artificiale. L’azienda non si concentra più esclusivamente sulle GPU di fascia alta; sta espandendo attivamente la propria offerta di CPU e consolidando la propria posizione come fornitore di elaborazione completo in un panorama sempre più competitivo.