Wat is GPU?
Een chip die duizenden berekeningen tegelijk kan doen — ontworpen voor graphics, maar perfect voor AI omdat machine learning uit eindeloos veel simpele rekensommetjes bestaat.

Wat is een GPU eigenlijk?
Een GPU (Graphics Processing Unit) is een computerchip die oorspronkelijk bedoeld was om beelden op je scherm razendsnel te tekenen — denk aan games of video-editing. Maar wat maakt 'm zo belangrijk voor AI? Een GPU kan duizenden eenvoudige berekeningen tegelijk uitvoeren, in plaats van één voor één zoals een gewone processor (CPU) dat doet.
Stel je voor: een CPU is als één snelle kok die gerechten na elkaar perfect bereidt. Een GPU is een keuken vol honderden stagiairs die tegelijk aardappels schillen, uien snijden en borden afspoelen — misschien niet elk apart even slim, maar samen véél sneller klaar.
Machine learning draait om eindeloos veel matrix-berekeningen (vermenigvuldigen van getallen-tabellen). Die berekeningen zijn simpel, maar er zijn er miljoenen nodig. Precies het werk waar een GPU voor gemaakt is.
Waarom zou jij hier iets aan hebben?
Als je AI-modellen wilt trainen of gebruiken, maakt een GPU het verschil tussen "klaar in 10 minuten" en "klaar over 3 dagen". Vooral bij:
Training van modellen — het leren van patronen uit grote hoeveelheden data
Beeld- en videobewerking — bijvoorbeeld gezichtsherkenning of objectdetectie
Taalmodellen draaien — zoals ChatGPT of Claude lokaal op je eigen hardware
Real-time AI — bijvoorbeeld voor zelfrijdende auto's of live videoanalyse
Zonder GPU zou het trainen van een groot taalmodel maanden tot jaren duren in plaats van weken.
Een voorbeeld uit de praktijk
Stel: je wilt een AI-model trainen dat foto's van honden en katten uit elkaar houdt. Het model moet miljoenen plaatjes analyseren en patronen leren herkennen (vacht, oren, snuit).
Met een CPU verwerk je misschien 10 foto's per seconde. Met een GPU: 1.000 foto's per seconde. Het verschil tussen een weekend werk en drie maanden wachten.
Bedrijven als Tesla gebruiken duizenden GPU's tegelijk om hun zelfrijdende auto-software te trainen op beelden van miljoenen gereden kilometers.
Waar kom je het tegen?
Je hebt waarschijnlijk al een GPU in je laptop of desktop — vooral als je weleens gamet of video's bewerkt. Voor AI zijn er gespecialiseerde varianten:
NVIDIA maakt de meest gebruikte AI-GPU's (A100, H100, RTX-series)
AMD biedt alternatieven (MI300, Radeon Instinct)
Apple heeft eigen chips (M1/M2/M3) met GPU's geïntegreerd
Google en Amazon verhuren GPU-kracht via de cloud (Google Cloud, AWS)
Als je ChatGPT, Midjourney of een ander AI-tool gebruikt, draait dat ergens op servers vol GPU's — ook al zie je ze niet.
Voor wie zelf wil experimenteren: veel AI-frameworks (PyTorch, TensorFlow) detecteren automatisch of je een GPU hebt en gebruiken die dan. Cloud-diensten zoals Google Colab bieden gratis GPU-tijd voor kleine projecten.
Wat kun je ermee?
Als je serieus aan de slag wilt met AI — of je nu modellen traint, beelden analyseert of taalmodellen lokaal wilt draaien — is toegang tot een GPU bijna onmisbaar. De goede nieuws: je hoeft niet meteen duizenden euro's uit te geven. Cloud-diensten verhuren GPU-kracht per uur, en veel tools ondersteunen ook gewone desktop-GPU's.
Wil je weten of jouw computer een GPU heeft? Op Windows typ je "Taakbeheer" en kijk je onder het tabblad "Prestaties". Op Mac vind je het onder "Over deze Mac > Grafische kaart". Zie je daar NVIDIA, AMD of Apple GPU staan? Dan ben je klaar voor je eerste AI-experiment.
Veelgestelde vragen over GPU
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is GPU?
Een chip die duizenden berekeningen tegelijk kan doen — ontworpen voor graphics, maar perfect voor AI omdat machine learning uit eindeloos veel simpele rekensommetjes bestaat.
Waarom is GPU belangrijk?
Een GPU (Graphics Processing Unit) is een computerchip die oorspronkelijk bedoeld was om beelden op je scherm razendsnel te tekenen — denk aan games of video-editing. Maar wat maakt 'm zo belangrijk voor AI? Een GPU kan duizenden eenvoudige berekeningen tegelijk uitvoeren, in plaats van één voor één zoals een gewone processor (CPU) dat doet.
Hoe wordt GPU toegepast?
Stel je voor: een CPU is als één snelle kok die gerechten na elkaar perfect bereidt. Een GPU is een keuken vol honderden stagiairs die tegelijk aardappels schillen, uien snijden en borden afspoelen — misschien niet elk apart even slim, maar samen véél sneller klaar.
Besproken in artikelen
Waar lees je meer over GPU op dit platform?
