Waarom AI-rekencapaciteit de nieuwe olie wordt
GPU's zijn schaars, datacenters groeien als kool, en landen vechten om AI-infrastructuur. Wat betekent deze race naar rekenkracht voor jouw organisatie?

Je hebt waarschijnlijk wel eens gehoord dat 'data de nieuwe olie is'. Maar inmiddels is er iets anders schaars geworden: de rekenkracht om die data daadwerkelijk te verwerken. GPU's — de gespecialiseerde chips die AI-modellen trainen — zijn het goud van dit decennium. En net als bij olie draait het niet alleen om technologie, maar ook om geopolitiek, infrastructuur en strategische afhankelijkheden.
De flessenhals bij AI-ontwikkeling

Als je vandaag een groot taalmodel wilt trainen, loop je tegen een muur aan: er zijn simpelweg niet genoeg GPU's beschikbaar. Bedrijven staan in de rij bij Nvidia, de Amerikaanse chipontwerper die het overgrote deel van de AI-chips produceert. Hun H100 en nieuwe H200 GPU's zijn maandenlang uitverkocht.
Waarom is dat zo'n probleem? Stel je voor dat je een bakkerij wilt beginnen, maar er zijn maar tien ovens in het hele land beschikbaar — en die worden al gebruikt door de grote ketens. Zo voelt de AI-markt nu voor veel organisaties. Je kunt het beste recept hebben, maar zonder oven geen brood.
Dit heeft directe gevolgen voor wie er meedoet in de AI-race. Grote techbedrijven zoals Microsoft, Google en Meta kopen GPU's in bulk en bouwen eigen datacenters. Kleinere partijen — startups, universiteiten, Europese bedrijven — moeten vechten om de restcapaciteit of huren bij cloudproviders, vaak tegen forse prijzen.
Nederland als datacenterland (en waarom dat ingewikkeld is)

Nederland heeft zich de afgelopen tien jaar ontwikkeld tot een Europese hub voor datacenters. Vooral rond Amsterdam staan clusters die internationaal verkeer afhandelen. Maar de groei botst steeds vaker met lokale bezwaren: datacenters verbruiken enorme hoeveelheden energie en drinkwater voor koeling.
Een modern AI-datacenter kan evenveel stroom gebruiken als een kleine stad. Dat zorgt voor spanning met klimaatdoelen en met bewoners die zich afvragen waarom hun elektriciteitsnet wordt belast voor buitenlandse AI-modellen. Gemeenten zoals Hollands Kroon en Zeewolde hebben daarom bouwaanvragen voor hyperscale-datacenters geweigerd of uitgesteld.
Tegelijkertijd zie je dat overheden beseffen dat digitale infrastructuur strategisch is. Wie geen eigen rekencapaciteit heeft, is afhankelijk van anderen. Dat maakt de discussie gelaagd: je wilt niet achterop raken, maar je wilt ook geen energienetwerk op de knieën.
Nvidia's monopolie en de alternatieven
Nvidia domineert de markt met een marktaandeel van naar schatting meer dan 80 procent in AI-chips. Dat komt doordat ze niet alleen hardware maken, maar ook het softwareplatform CUDA — de standaard waarmee ontwikkelaars GPU's aansturen. Bedrijven die op CUDA gebouwd hebben, kunnen niet zomaar overstappen naar een andere chip.
Er zijn wel alternatieven in opkomst. AMD probeert terrein te winnen met de Instinct-serie, en Google ontwikkelt eigen TPU's (Tensor Processing Units) voor intern gebruik. Startups zoals Cerebras en Groq bouwen gespecialiseerde chips die bepaalde AI-taken efficiënter aanpakken. Maar vooralsnog is Nvidia de speler die het tempo bepaalt — en die positie levert ze niet zomaar in.
Voor jou als professional betekent dit: als je organisatie AI-projecten plant, is het goed om te weten waar je rekenkracht vandaan komt en hoe schaars die is. De keuze voor een cloudprovider of een bepaald model kan ook een keuze zijn voor een bepaalde chiparchitectuur, met alle vendor lock-in die daarbij hoort.
De geopolitieke laag: chips als machtsmiddel
AI-chips zijn niet zomaar elektronica. Ze zijn strategisch, net zoals olie dat was in de twintigste eeuw. De Verenigde Staten beperken de export van geavanceerde GPU's naar China, uit angst dat die technologie gebruikt wordt voor militaire doeleinden of surveillance. Nvidia mag bijvoorbeeld geen H100-chips naar Chinese klanten verkopen zonder speciale vergunning.
China investeert miljarden in eigen chipfabricage om minder afhankelijk te worden, maar loopt technisch nog achter. Europa wil met de Chips Act een eigen productiecapaciteit opbouwen, maar dat duurt jaren. Ondertussen bepalen Amerikaanse bedrijven grotendeels wie wel en niet toegang krijgt tot de modernste AI-infrastructuur.
Dit klinkt abstract, maar het raakt ook Nederlandse organisaties. Als je in een sector werkt die internationale samenwerking vraagt — denk aan wetenschap, logistiek, finance — dan kun je te maken krijgen met restricties op wie met welke tools mag werken. En als de geopolitieke spanningen oplopen, kan toegang tot rekenkracht plotseling een onderhandelingsmiddel worden.
Wat betekent dit voor jouw organisatie?
Als je met AI aan de slag gaat, of dat al doet, zijn er een paar dingen om rekening mee te houden:
Rekenkracht is een kostenfactor én een strategische keuze. Training van grote modellen is duur en schaars. Veel organisaties kiezen er daarom voor om bestaande modellen te fine-tunen in plaats van vanaf nul te trainen. Dat scheelt enorm in GPU-uren.
Cloud versus eigen infrastructuur. Huren bij AWS, Google Cloud of Azure is flexibel, maar kan op termijn duur uitpakken. Eigen hardware kopen betekent voorinvestering en meer controle, maar ook risico als de technologie snel veroudert.
Afhankelijkheden in kaart brengen. Welk platform gebruik je? Welke chips draaien daaronder? Hoe makkelijk kun je wisselen als de voorwaarden veranderen of de toegang beperkt wordt? Dit zijn vragen die niet alleen IT, maar ook je risicoafdeling interesseren.
Energie en duurzaamheid meewegen. AI-infrastructuur vraagt energie. Als je organisatie klimaatdoelen heeft, wil je weten waar je modellen draaien en hoe groen die stroom is. Sommige cloudproviders bieden inzicht in CO₂-footprint per workload.
De race is nog maar net begonnen
De vergelijking met olie gaat best ver. Net als bij fossiele brandstoffen zie je dat controle over infrastructuur macht geeft. Landen en bedrijven die vroeg investeren in datacenters, chips en energie-efficiënte koeling, bepalen wie straks mee kan doen in de AI-economie.
Voor jou als professional betekent dat: houd in de gaten waar de rekenkracht vandaan komt die jouw projecten draait. En realiseer je dat schaarste niet alleen een technisch probleem is, maar ook een strategisch speelveld. Wie niet meedenkt over infrastructuur, kan straks buitenspel komen te staan — niet door gebrek aan ideeën, maar door gebrek aan chips.
Vraag om mee te nemen: weet jij waar de AI-workloads van jouw organisatie draaien, en hoe kwetsbaar of afhankelijk dat je maakt?
Lees ook

Hoe open-source AI-modellen het speelveld verandert
Proprietary modellen krijgen concurrentie van alternatieven die je zelf kunt draaien. Wat betekent dat voor jouw keuzevrijheid, kosten en privacy?

EU AI Act: wat de nieuwe regels voor Nederlandse MKB-bedrijven betekenen
De nieuwe Europese wet legt AI-toepassingen op een weegschaal: van 'mag nooit' tot 'gewoon doen'. Wat valt jouw gebruik onder, en welke stappen moet je zetten?

De stille revolutie van AI-agents: van chatbot naar digitale collega
Ze plannen vergaderingen, analyseren data en nemen zelfstandig beslissingen. AI-agents zijn de volgende stap na chatbots — maar wat kunnen ze echt, en waar moet je opletten?