Direct naar inhoud
Alle termenLarge Language Models & NLP

Wat is RAG?

Een techniek waarbij een AI-model eerst relevante informatie opzoekt voordat het antwoord geeft, zoals jij even googelt voordat je een vraag beantwoordt.

Wat is RAG

Wat is RAG eigenlijk?

RAG staat voor Retrieval-Augmented Generation — klinkt ingewikkeld, maar het idee is simpel. Stel je voor dat je een vraag krijgt over een onderwerp waar je niet alles van weet. Wat doe je dan? Je googelt even, leest wat je vindt, en formuleert daarna je antwoord. Precies dat doet een AI-model met RAG.

Zonder RAG baseert een taalmodel zijn antwoorden puur op wat het tijdens zijn training heeft geleerd — zijn "geheugen" zit als het ware vastgepind op een bepaald moment. Met RAG kan het model eerst even "opzoeken" in een database, documenten of andere informatiebronnen voordat het antwoord geeft. Zo krijg je actuele, specifieke informatie in plaats van alleen algemene kennis.

Hoe werkt het?

Het proces heeft twee stappen:

  • Retrieval (ophalen): Je vraag wordt omgezet in een zoekactie. Het systeem doorzoekt een verzameling documenten — dat kunnen bedrijfsdocumenten zijn, een kennisbank, actuele nieuwsartikelen of productcatalogi — en haalt de meest relevante stukken informatie op.

  • Generation (genereren): Het taalmodel krijgt zowel jouw vraag als de opgehaalde informatie te zien, en schrijft daarop gebaseerd een antwoord. Het combineert zijn taalvaardigheid met de specifieke feiten die net zijn opgezocht.

Denk aan een slimme assistent die toegang heeft tot jouw bedrijfsarchief: je vraagt "Wat zijn onze retourvoorwaarden voor software?", het systeem vindt het relevante beleidsdocument, en het model formuleert het antwoord in begrijpelijke taal.

Waarom zou jij hier iets aan hebben?

RAG lost een groot probleem op: AI-modellen zijn getraind op informatie tot een bepaalde datum, en ze kunnen niet van nature toegang krijgen tot jouw specifieke bedrijfsdata of actuele gebeurtenissen. Met RAG maak je een taalmodel slim over onderwerpen waar het normaal niets vanaf weet:

  • Actuele informatie: beantwoord vragen over recente ontwikkelingen of gisteren gepubliceerde rapporten

  • Bedrijfsspecifieke kennis: laat het model werken met jouw interne documenten, handleidingen of databases zonder die in het model zelf te moeten "stoppen"

  • Controleerbaarheid: omdat je weet welke documenten gebruikt zijn, kun je het antwoord verifiëren — het model verzint minder snel dingen

Het is alsof je een slimme medewerker hebt die perfect kan formuleren, maar die voor elk antwoord eerst even de juiste bronnen checkt.

Een voorbeeld uit de praktijk

Een webshop heeft duizenden productbeschrijvingen, reviews en specificaties. Een klant vraagt via de chatbot: "Welke draadloze stofzuiger heeft de langste batterijduur onder de €300?"

Zonder RAG zou het model alleen algemeen kunnen antwoorden of verouderde informatie geven. Met RAG gebeurt dit:

  1. Het systeem doorzoekt de productcatalogus op "draadloze stofzuiger", "batterijduur" en prijzen onder €300

  2. Het vindt drie relevante producten met specificaties

  3. Het model formuleert een helder antwoord: "De [Product X] heeft met 75 minuten de langste batterijduur in die prijsklasse, en kost momenteel €279"

Het antwoord is actueel, specifiek en gebaseerd op echte productdata.

Waar kom je het tegen?

RAG wordt breed toegepast in systemen die specifieke of actuele kennis moeten combineren met taalbegrip:

  • Klantenservice-chatbots die werken met bedrijfsdocumenten en FAQ's

  • Interne zoeksystemen die niet alleen documenten vinden maar ook vragen beantwoorden

  • Onderzoekstools die door wetenschappelijke papers zoeken en samenvattingen maken

  • Juridische assistenten die door contracten en wetgeving zoeken

Veel bedrijven bouwen RAG-systemen met vector-databases (zoals Pinecone of Weaviate) en koppelen die aan modellen via platforms als LangChain of LlamaIndex. De grote aanbieders (OpenAI, Anthropic, Google) ondersteunen deze aanpak ook in hun API's.

Wat kun je ermee?

Als je overweegt om AI in te zetten voor vraagbeantwoording of kennisdeling, is RAG vaak de praktische route. Je hoeft geen nieuw model te trainen — je geeft een bestaand model simpelweg toegang tot jouw informatie. Ideaal voor situaties waar kennis snel verandert of waar je grip wilt houden op waar antwoorden vandaan komen. Begin klein: test het met een overzichtelijke set documenten en een duidelijke use case, en schaal daarna op.

FAQ

Veelgestelde vragen over RAG

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is RAG?

Een techniek waarbij een AI-model eerst relevante informatie opzoekt voordat het antwoord geeft, zoals jij even googelt voordat je een vraag beantwoordt.

Waarom is RAG belangrijk?

RAG staat voor Retrieval-Augmented Generation — klinkt ingewikkeld, maar het idee is simpel. Stel je voor dat je een vraag krijgt over een onderwerp waar je niet alles van weet. Wat doe je dan? Je googelt even, leest wat je vindt, en formuleert daarna je antwoord. Precies dat doet een AI-model met RAG.

Hoe wordt RAG toegepast?

Zonder RAG baseert een taalmodel zijn antwoorden puur op wat het tijdens zijn training heeft geleerd — zijn "geheugen" zit als het ware vastgepind op een bepaald moment. Met RAG kan het model eerst even "opzoeken" in een database, documenten of andere informatiebronnen voordat het antwoord geeft. Zo krijg je actuele, specifieke informatie in plaats van alleen algemene kennis.

Deel:

Besproken in artikelen

Waar lees je meer over RAG op dit platform?