Direct naar inhoud
Alle termenAI-infrastructuur, MLOps & frameworks

Wat is Ray?

Een open-source framework om AI-workloads over meerdere computers te verdelen, zodat je grote modellen kunt trainen of draaien zonder dat één machine het hele werk hoeft te doen.

Wat is Ray

Wat is Ray eigenlijk?

Ray is een framework dat je helpt om zware AI-taken over meerdere computers te verdelen. Stel je voor: je wilt een groot taalmodel trainen, maar je laptop of zelfs één server kan dat niet aan. Met Ray kun je die taak opknippen en over tientallen of honderden machines verspreiden — alsof je een grote verhuizing niet in je eentje doet, maar met een heel team vrienden die elk een dozen stapel pakken.

Het framework werd ontwikkeld aan UC Berkeley en is sinds 2017 open source. Ray maakt het makkelijker om Python-code die je normaal op één computer draait, automatisch te laten schalen naar clusters. Je hoeft geen expert in gedistribueerde systemen te zijn om het te gebruiken.

Hoe werkt het eigenlijk?

Ray bestaat uit een kern die werk verdeelt en een aantal bibliotheken voor specifieke AI-taken:

  • Ray Core — de basis. Je markeert functies of klassen in je Python-code als "remote", waarna Ray ze automatisch over beschikbare machines verdeelt.

  • Ray Train — voor het trainen van machine learning-modellen op meerdere GPU's tegelijk.

  • Ray Serve — om getrainde modellen uit te rollen als API, zodat anderen er verzoeken naar kunnen sturen.

  • Ray Tune — voor hyperparameter-tuning, waarbij je honderden varianten van een model parallel test om de beste instellingen te vinden.

  • Ray Data — voor het verwerken van grote datasets die niet in het geheugen van één machine passen.

Ray zorgt ervoor dat je code op de juiste machines terechtkomt, resultaten weer terug worden gestuurd en dat alles synchroon blijft. Het regelt ook foutafhandeling: als een machine crasht, herverdelen andere machines het werk.

Een voorbeeld uit de praktijk

Stel: je hebt een aanbevelingssysteem dat elke dag miljarden gebruikersinteracties moet doorrekenen. Op één server zou dat dagen duren. Met Ray verdeel je de dataset automatisch over 50 machines. Elk knooppunt verwerkt een deel van de data, en Ray voegt de resultaten samen. Wat eerst 24 uur kostte, is nu in een uur klaar.

Of: je traint een chatbot en wilt 100 verschillende configuraties uitproberen om te zien welke het best presteert. Ray Tune start al die experimenten parallel, houdt bij welke het beste scoren en stopt automatisch met varianten die slecht presteren. Dat scheelt je weken wachttijd.

Waar kom je het tegen?

Ray wordt veel gebruikt door teams die:

  • Grote modellen trainenreinforcement learning, LLM's, aanbevelingssystemen die veel rekenkracht vragen.

  • Experimenten parallel draaien — onderzoeksteams die tientallen varianten van een model tegelijk willen testen.

  • Modellen uitrollen — productie-omgevingen waar je getrainde modellen als schaalbare API wilt serveren.

Bedrijven die Ray in productie gebruiken zijn onder andere OpenAI (voor reinforcement learning bij ChatGPT), Shopify, Spotify en Uber. Het framework wordt vaak gezien naast tools als Kubernetes (voor container-orkestratie) en Apache Spark (voor big data), maar Ray is specifiek gebouwd voor AI-workloads.

Waarom zou jij hier iets aan hebben?

Als je AI-projecten begint te schalen — of je nu een startup bent die plotseling veel meer gebruikers krijgt, of een data-team dat steeds grotere modellen wil trainen — dan loop je tegen de grenzen van één computer aan. Ray geeft je een manier om daar overheen te groeien zonder dat je zelf ingewikkelde infrastructuur hoeft te bouwen.

Het is vooral waardevol als je al Python gebruikt en niet wilt overstappen op andere programmeertalen of ecosystemen. Ray laat je grotendeels je bestaande code houden en voegt schaalbaarheid toe zonder alles te herschrijven. Voor kleine experimenten hoef je het niet, maar zodra je merkt dat wachttijden of geheugen een bottleneck worden, is het de moeite waard om Ray te verkennen. De documentatie op ray.io biedt tutorials om mee te beginnen.

FAQ

Veelgestelde vragen over Ray

De drie meest gestelde vragen over dit onderwerp, kort beantwoord.

Wat is Ray?

Een open-source framework om AI-workloads over meerdere computers te verdelen, zodat je grote modellen kunt trainen of draaien zonder dat één machine het hele werk hoeft te doen.

Waarom is Ray belangrijk?

Ray is een framework dat je helpt om zware AI-taken over meerdere computers te verdelen. Stel je voor: je wilt een groot taalmodel trainen, maar je laptop of zelfs één server kan dat niet aan. Met Ray kun je die taak opknippen en over tientallen of honderden machines verspreiden — alsof je een grote verhuizing niet in je eentje doet, maar met een heel team vrienden die elk een dozen stapel pakken.

Hoe wordt Ray toegepast?

Het framework werd ontwikkeld aan UC Berkeley en is sinds 2017 open source. Ray maakt het makkelijker om Python-code die je normaal op één computer draait, automatisch te laten schalen naar clusters. Je hoeft geen expert in gedistribueerde systemen te zijn om het te gebruiken.

Deel: