Het uitgebreide partnerschap van Nvidia en Meta signaleert een verschuiving in de vraag naar AI-computers

Het uitgebreide partnerschap van Nvidia en Meta signaleert een verschuiving in de vraag naar AI-computers

Nvidia staat al jaren synoniem voor hoogwaardige grafische verwerkingseenheden (GPU’s) die vooruitgang op het gebied van gaming, datawetenschap en nu ook kunstmatige intelligentie aandrijven. Maar de recente stappen van het bedrijf laten een groeiende focus zien op het voldoen aan de behoeften van een bredere AI-markt – een markt waar niet elke toepassing de meest geavanceerde, dure hardware vereist.

Behalve GPU’s: diversificatie van computeroplossingen

Nvidia verkoopt niet alleen meer GPU’s. Recente investeringen in chiptechnologie met lage latentie en de introductie van stand-alone CPU’s duiden op een strategie om klanten te veroveren die prioriteit geven aan efficiëntie boven brute kracht. Dit is vooral relevant voor ‘agentische AI’ – software die realtime responsiviteit vereist in plaats van enorme trainingsdatasets.

Deze verschuiving werd versterkt door de aankondiging gisteren van een deal van meerdere miljarden dollars tussen Nvidia en Meta. De socialemediagigant zal een mix van Nvidia-chips kopen, inclusief CPU’s, om zijn groeiende AI-infrastructuur van stroom te voorzien. Deze samenwerking is niet nieuw; Meta was eerder van plan om eind 2024 350.000 H100-chips aan te schaffen, met in totaal 1,3 miljoen GPU’s in zijn arsenaal tegen 2025.

Met de nieuwste uitbreiding zal Meta de CPU’s van Nvidia op schaal inzetten naast de GPU’s van Blackwell en Rubin, waardoor de datacenters worden geoptimaliseerd voor zowel AI-training als gevolgtrekking.

De opkomst van CPU’s in AI-workloads

Wat drijft deze vraag naar CPU’s? De trend is agentische AI. Naarmate AI-toepassingen meer geïntegreerd raken in realtime systemen, spelen CPU’s een cruciale rol bij het beheren van de gegevensstroom en het garanderen van reactievermogen. Eén datacenter voor OpenAI heeft nu “tienduizenden CPU’s” nodig om de enorme gegevens te verwerken die door GPU’s worden gegenereerd, een behoefte die vóór de explosieve groei van AI niet bestond.

GPU’s blijven echter dominant. De CPU-aankoop van Meta is aanzienlijk, maar valt nog steeds in het niet bij de GPU-aankopen. De CPU dient als ondersteunend onderdeel en zorgt ervoor dat de GPU-aangedreven architectuur geen knelpunten vormt.

Concurrentie en diversificatie

De stappen van Nvidia komen op het moment dat andere AI-giganten hun computerbronnen diversifiëren. OpenAI, Anthropic en Google onderzoeken allemaal aangepaste chips of partnerschappen met AMD en Cerebras om de afhankelijkheid van één enkele leverancier te verminderen. OpenAI heeft bijvoorbeeld deals met zowel Nvidia (potentieel ter waarde van $100 miljard) als AMD (tot 6 gigawatt aan chips), evenals een overeenkomst van $10 miljard met Cerebras.

Het onderliggende probleem blijft het aanbod. De vraag naar GPU’s overtreft nog steeds de beschikbaarheid, wat bedrijven ertoe aanzet waar mogelijk alternatieven te onderzoeken. Nvidia’s recente overname van Groq, een chipstartup gespecialiseerd in goedkope inferentie, weerspiegelt deze druk.

Meta’s enorme investering in AI-infrastructuur

Meta is van plan dit jaar tussen de $115 miljard en $135 miljard uit te geven aan AI-infrastructuur, vergeleken met $72,2 miljard vorig jaar, wat de toewijding van het bedrijf aan AI-gedreven groei onderstreept. Nvidia heeft lang volgehouden dat zijn hardware naast training ook inferentie ondersteunt, waarbij de bedrijfstak twee jaar geleden ongeveer 40% inferentie en 60% training opsplitste.

Concluderend betekent de samenwerking van Nvidia met Meta een strategische verschuiving in de richting van het voldoen aan de uiteenlopende eisen van de AI-markt. Het bedrijf richt zich niet langer uitsluitend op high-end GPU’s; het breidt actief zijn CPU-aanbod uit en verstevigt zijn positie als een allesomvattende computerprovider in een steeds competitiever landschap.