Wat is K-Nearest Neighbors?
Een simpele methode waarbij AI kijkt naar de dichtstbijzijnde voorbeelden in je data om een voorspelling te doen — zoals vragen aan je 5 meest vergelijkbare buren wat zij zouden doen.

Hoe werkt het eigenlijk?
Stel je voor dat je wilt weten of een huis duur of goedkoop is. Je zou kunnen kijken naar de vijf huizen die het meest op dat huis lijken qua oppervlakte, locatie en aantal kamers. Als vier van die vijf huizen duur zijn, dan is de kans groot dat jouw huis ook duur is. Dat is precies hoe K-Nearest Neighbors (vaak afgekort als KNN) werkt.
De 'K' staat voor het aantal buren waar je naar kijkt — meestal kies je 3, 5 of 10. De 'nearest neighbors' zijn de datapunten in je trainingsdata die het meest lijken op het nieuwe punt dat je wilt voorspellen. Het algoritme berekent letterlijk de afstand tussen punten in een soort virtuele ruimte, alsof je op een kaart meet welke huizen het dichtst bij elkaar staan.
Bij classificatie (labelen) telt KNN welk label het vaakst voorkomt bij die K buren, en kiest dat. Bij regressie (een getal voorspellen) neemt het vaak het gemiddelde van de K buren. Geen ingewikkelde wiskunde, geen training — het algoritme onthoud gewoon alle voorbeelden en vergelijkt op het moment dat je een vraag stelt.
Waarom is dit interessant?
KNN is een van de eenvoudigste machine learning-methoden die er bestaat. Je hebt geen trainingsproces zoals bij neural networks — je stopt de data erin, en klaar. Dat maakt het ideaal voor beginners die willen begrijpen hoe machine learning werkt zonder complexe wiskunde.
Tegelijkertijd heeft KNN ook nadelen. Bij grote datasets wordt het traag, omdat het elke keer alle afstanden moet berekenen. En als je data veel dimensies heeft (veel kenmerken), wordt afstand meten lastig — dat heet het 'curse of dimensionality'. Ook is KNN gevoelig voor schaal: als één kenmerk waarden van 0 tot 1000 heeft en een ander van 0 tot 1, domineert het eerste de berekening. Daarom moet je de data vaak eerst normaliseren.
Toch blijft KNN populair voor kleine datasets, voor situaties waar je snel iets wilt uitproberen, of als baseline om complexere modellen mee te vergelijken.
Een voorbeeld uit de praktijk
Stel dat je een app bouwt die bloemen automatisch herkent. Je hebt foto's van irissen met metingen: kelkblad-lengte, bloemblad-breedte, enzovoort. Een nieuwe iris komt binnen met lengte 5,1 cm en breedte 3,5 cm. KNN zoekt de vijf irissen in je database die het dichtst bij die afmetingen zitten. Drie daarvan blijken 'Iris Setosa', twee zijn 'Iris Versicolor'. De meerderheid wint: het model voorspelt 'Iris Setosa'.
Of in een aanbevelingssysteem: als je wilt weten welke film iemand leuk vindt, zoek je gebruikers met vergelijkbare smaak (de 'buren') en kijk je wat zij kijken. Netflix en Spotify gebruiken tegenwoordig complexere methoden, maar KNN was een van de vroege technieken voor dit soort aanbevelingen.
Waar kom je het tegen?
KNN zit in praktisch elke machine learning-bibliotheek:
Scikit-learn (Python) heeft KNeighborsClassifier en KNeighborsRegressor
Weka (Java) biedt IBk (Instance-Based learning met K)
MATLAB heeft fitcknn voor classificatie
R heeft het 'class'-pakket met knn()
Je ziet KNN vooral bij kleinschalige toepassingen: medische diagnose op beperkte patiëntdata, handgeschreven cijferherkenning in onderwijsprojecten, lokale weersverwachtingen (kijk naar vergelijkbare dagen in het verleden), en als snelle test voordat je zwaardere modellen inzet.
Begin eenvoudig, schaal later
Als je net begint met machine learning, is KNN een perfecte eerste stap. Download een kleine dataset, probeer verschillende K-waarden, en zie direct hoe dichtheid en afstand invloed hebben op voorspellingen. Het geeft intuïtie voor concepten die je later bij complexere modellen terugziet — zoals het belang van datakwaliteit, feature scaling en de trade-off tussen simpliciteit en rekenkracht. Voor productieschaal kijk je daarna verder, maar als leermiddel blijft KNN onverslaanbaar helder.
Veelgestelde vragen over K-Nearest Neighbors
De drie meest gestelde vragen over dit onderwerp, kort beantwoord.
Wat is K-Nearest Neighbors?
Een simpele methode waarbij AI kijkt naar de dichtstbijzijnde voorbeelden in je data om een voorspelling te doen — zoals vragen aan je 5 meest vergelijkbare buren wat zij zouden doen.
Waarom is K-Nearest Neighbors belangrijk?
Stel je voor dat je wilt weten of een huis duur of goedkoop is. Je zou kunnen kijken naar de vijf huizen die het meest op dat huis lijken qua oppervlakte, locatie en aantal kamers. Als vier van die vijf huizen duur zijn, dan is de kans groot dat jouw huis ook duur is. Dat is precies hoe K-Nearest Neighbors (vaak afgekort als KNN) werkt.
Hoe wordt K-Nearest Neighbors toegepast?
De 'K' staat voor het aantal buren waar je naar kijkt — meestal kies je 3, 5 of 10. De 'nearest neighbors' zijn de datapunten in je trainingsdata die het meest lijken op het nieuwe punt dat je wilt voorspellen. Het algoritme berekent letterlijk de afstand tussen punten in een soort virtuele ruimte, alsof je op een kaart meet welke huizen het dichtst bij elkaar staan.