Een agent is een systeem dat een LLM (zoals ChatGPT of Claude) gebruikt om zelfstandig taken uit te voeren. In plaats van één keer antwoord te geven zoals wanneer je met een promptEen prompt is de instructie die je aan een AI-model geeft zoals bijvoorbeeld ChatGPT. Het is hoe je communiceert met het systeem: wat je vraagt, hoe je het vraagt en... Meer met AI praat, zet een agent meerdere stappen, maakt keuzes, en zet tools in, net zo lang tot de taak klaar is.
Dat kan op twee manieren:
- Eén agent die verschillende tools (zoeken, rekenen, schrijven) gebruikt en zelf bepaalt welke tool wanneer nodig is.
- Of meerdere gespecialiseerde agents die samenwerken: één zoekt informatie, één analyseert, één schrijft. Ze worden dan allemaal aangestuurd door een hoofd-agent.
Een voorbeeld: je wilt een artikel schrijven over onderwerp X. Een agent kan eerst informatie opzoeken, die analyseren, een opzet maken, een draft schrijven, checken of het aan criteria voldoet, en dan het eindresultaat geven. Jij hoeft niet elke stap apart aan te sturen.
Waarom dit belangrijk is
Het verschil tussen een gewone AI-interactie en een agent zit in de zelfstandigheid van de agent.
- Bij een gewone interactie vraag je iets en krijg je antwoord.
- Een agent krijgt een doel en bepaalt zelf welke stappen nodig zijn om dat te bereiken.
Dat is handig, maar het betekent ook dat je minder controle hebt. Een agent kan onverwachte beslissingen nemen, goed en/of slecht.
Voorbeeld
Je vraagt: “Zoek uit hoeveel het kost om een website te laten bouwen.” Een gewoon LLM geeft je een geschat antwoord op basis van wat het weet. Een agent zou: actuele prijzen kunnen opzoeken van webdevelopers, die informatie kunnen vergelijken, een berekening kunnen maken voor jouw specifieke situatie en dan met jou een overzicht delen, inclusief de bronnen die het heeft gebruikt. Het doorloopt die stappen zonder dat jij ze apart hoeft aan te vragen.
Risico
Agents maken zelf keuzes. Ze interpreteren jouw vraag, kiezen welke tools ze gebruiken en bepalen welke stappen nodig zijn. Als die interpretatie niet klopt, kan een agent tijd en geld verspillen aan verkeerde dingen.
Bijvoorbeeld: je vraagt een agent om marktonderzoek te doen. De agent interpreteert dit als “zoek alle mogelijke informatie” en koopt toegang tot vijf betaalde databases, terwijl gratis bronnen voldoende waren geweest.
Agents kunnen ook acties uitvoeren die je helemaal niet wil. Bijvoorbeeld: je geeft een agent toegang tot je e-mail om vergaderingen in te plannen. De agent interpreteert een mail verkeerd en annuleert per ongeluk een belangrijke afspraak. Technisch gezien heb je de agent geautoriseerd om met je agenda te werken, maar je wilde niet dat dit gebeurde.
Wat kun je doen?
- Geef agents duidelijke grenzen: welke tools mogen ze wel of niet gebruiken?
- Test eerst met simpele taken om te zien hoe een agent zich gedraagt
- Bekijk niet alleen het eindresultaat, maar ook de stappen die een agent heeft gezet
- Gebruik agents niet voor taken waar fouten grote gevolgen hebben
- Stel altijd de vraag: heb ik echt een agent nodig, of kan dit met gewone automatisering?