LLM staat voor Large Language Model en is een AI-systeem dat getraind is op enorme hoeveelheden tekst om taal te voorspellen en te genereren (maken). Het werkt door patronen te herkennen in miljarden zinnen en daaruit te leren welke woorden waarschijnlijk op elkaar volgen. Het model “begrijpt” niet echt wat het schrijft, het voorspelt wat statistisch gezien het meest logisch klinkt op basis van alles wat het heeft gezien tijdens training.
Waarom dit belangrijk is
LLM’s zijn de tools waar je nu waarschijnlijk al mee werkt: ChatGPT, Claude, Gemini, Mistral. Als iemand het over LLM’s heeft, hebben ze het over die systemen. Wat vooral belangrijk is, is om te begrijpen dat deze modellen niet “denken” zoals mensen, maar werken op patroonherkenning en -voorspelling.
Voorbeeld
Je typt “De kat zat op de…” en de LLM voorspelt “mat” omdat het in trainingsdata heeft geleerd dat die woorden vaak samen voorkomen. Bij “Geachte heer/mevrouw, hierbij…” voorspelt het “wil ik u informeren” omdat dat patroon duizenden keren in formele brieven staat. Het maakt geen verschil of het over katten of klachten gaat – het herkent patronen en voorspelt wat er waarschijnlijk volgt.
Risico
Omdat LLM’s zo overtuigend klinken, ga je er eerder vanuit dat de informatie die ze genereren, klopt. Maar de modellen verzinnen soms dingen. Die zien er dan wel betrouwbaar uit, maar zijn absoluut niet waar. Dat is vooral in sectoren zoals de zorg, finance of bij juridisch werk een risico, omdat het kan leiden tot verkeerde adviezen of gewoon fouten met grote gevolgen.
Wat kun je doen?
- Check feiten altijd handmatig bij belangrijke content.
- Gebruik AI als startpunt en niet als eindpunt: zie het als een eerste versie die je nog moet controleren.
- Vraag het model om bronnen te noemen en check die bronnen zelf.
- En bij kritieke beslissingen: laat altijd een expert, een mens dus – de output beoordelen voordat je het gebruikt.
> Terug naar de AI begrippenlijst
