Wat is TPU?
Een speciale chip die Google ontwierp om AI-modellen razendsnel te trainen — veel efficiënter dan gewone computerprocessors, maar alleen voor dit ene doel.

Wat is een TPU eigenlijk?
Een TPU (Tensor Processing Unit) is een gespecialiseerde computerchip die Google ontwierp om AI-berekeningen sneller en zuiniger uit te voeren. Je kunt het vergelijken met het verschil tussen een universele keukenmachine en een broodrooster: een gewone processor (CPU) kan van alles, maar een TPU is gebouwd voor precies één ding — het uitvoeren van de enorme hoeveelheid eenvoudige rekensommen die nodig zijn om AI-modellen te trainen en te gebruiken.
De naam verwijst naar 'tensoren' — dat zijn eigenlijk multidimensionale tabellen met getallen waar AI-modellen constant mee werken. Stel je voor: tijdens het trainen van een beeldherkenningsmodel moeten miljoenen pixels keer miljoenen gewichten keer honderden lagen worden vermenigvuldigd en opgeteld. Een TPU is gebouwd om precies dat soort vermenigvuldigingen massaal parallel uit te voeren.
Waarom ontwikkelde Google dit?
Rond 2013 merkte Google dat hun datacenters het niet aankonden als iedereen tegelijk spraakherkenning zou gebruiken. Met gewone processors zouden ze hun aantal servers moeten verdubbelen — onbetaalbaar. Dus bouwden ze hun eigen chip, specifiek voor neurale netwerken.
Het eerste TPU-ontwerp uit 2016 was puur bedoeld voor 'inferentie' — het gebruiken van een al-getraind model om voorspellingen te doen. Latere versies (vanaf TPU v2) konden ook trainen. Inmiddels zitten we bij de vierde generatie, die Google in hun eigen clouddienst aanbiedt.
Hoe verschilt een TPU van een GPU?
Dit is waar mensen vaak de war raken. GPU's (Graphics Processing Units) van bedrijven als NVIDIA werden oorspronkelijk gebouwd voor games en 3D-graphics, maar bleken ook goed in AI-berekeningen. Ze zijn flexibeler: je kunt ze voor allerlei soorten berekeningen gebruiken.
Een TPU daarentegen is nóg specialistischer. Hij doet minder dingen, maar die paar dingen — vooral matrixvermenigvuldigingen — doet hij extremer efficiënt. Voor bepaalde AI-modellen (vooral grote taalmodellen en beeldherkenning) levert dat een flink voordeel in snelheid én energieverbruik.
De keerzijde: TPU's zijn minder flexibel. Als je algoritme niet past bij hoe de chip werkt, heb je er weinig aan. GPU's zijn meer algemeen inzetbaar.
Waar kom je het tegen?
TPU's zijn geen consumentenproduct — je koopt ze niet in de winkel. Je komt ze tegen in deze contexten:
Google Cloud Platform — waar je TPU-rekenkracht kunt huren (per uur of langer) om je eigen AI-modellen te trainen
Google's eigen diensten — alles van Google Translate tot Google Photos draait deels op TPU's
Onderzoeksprojecten — wetenschappers kunnen via TensorFlow Research Cloud gratis TPU-tijd aanvragen
Coral-apparaten — kleine Edge TPU's die Google verkoopt voor lokale AI op bijvoorbeeld Raspberry Pi's of slimme camera's
Als je bijvoorbeeld een startup hebt die een beeldherkenningsmodel traint en je wilt kosten besparen, kun je op Google Cloud kiezen tussen GPU's en TPU's — vaak is een TPU voordeliger voor grote Transformer-modellen.
Moet jij je hier druk om maken?
Als je AI-modellen gebruikt via API's (zoals ChatGPT, Claude, Gemini), maakt het je niet uit welke chip erachter draait. Maar als je zelf modellen traint — bijvoorbeeld voor een specifieke bedrijfstoepassing — kan de keuze tussen GPU's en TPU's flink schelen in kosten en snelheid.
De belangrijkste les: AI-hardware is geen one-size-fits-all. Sommige taken draaien beter op GPU's (vooral als je veel verschillende experimenten doet), andere op TPU's (vooral als je grote modellen intensief traint). En voor het runnen van modellen op je eigen apparaat (edge computing) bestaan weer andere opties. Check altijd wat het best past bij jouw specifieke situatie — en verwacht niet dat één oplossing overal de snelste is.
Veelgestelde vragen over TPU
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is TPU?
Een speciale chip die Google ontwierp om AI-modellen razendsnel te trainen — veel efficiënter dan gewone computerprocessors, maar alleen voor dit ene doel.
Waarom is TPU belangrijk?
Een TPU (Tensor Processing Unit) is een gespecialiseerde computerchip die Google ontwierp om AI-berekeningen sneller en zuiniger uit te voeren. Je kunt het vergelijken met het verschil tussen een universele keukenmachine en een broodrooster: een gewone processor (CPU) kan van alles, maar een TPU is gebouwd voor precies één ding — het uitvoeren van de enorme hoeveelheid eenvoudige rekensommen die nodig zijn om AI-modellen te trainen en te gebruiken.
Hoe wordt TPU toegepast?
De naam verwijst naar 'tensoren' — dat zijn eigenlijk multidimensionale tabellen met getallen waar AI-modellen constant mee werken. Stel je voor: tijdens het trainen van een beeldherkenningsmodel moeten miljoenen pixels keer miljoenen gewichten keer honderden lagen worden vermenigvuldigd en opgeteld. Een TPU is gebouwd om precies dat soort vermenigvuldigingen massaal parallel uit te voeren.
Besproken in artikelen
Waar lees je meer over TPU op dit platform?

AI en auteursrecht: wat de grote rechtszaken voor jouw bedrijf betekenen
Wanneer mag je AI-output gebruiken zonder juridische problemen? De uitkomsten van rechtszaken tussen grote namen geven steeds meer antwoord — en die zijn relevant voor elke ondernemer.

Structured output: hoe je AI-antwoorden laat terugkomen als JSON of tabel
AI-antwoorden die direct in je systeem passen zonder handmatig geklungel? Met structured output maak je van ChatGPT een betrouwbare API-partner. Zo doe je dat.

AI-training op jouw data: wie is de eigenaar van de output?
Je bedrijfsdata verdwijnt in een AI-model en komt er getransformeerd weer uit. Maar wie bezit dan eigenlijk wat? Over een juridische grijze zone die steeds relevanter wordt.