Chain-of-thought (CoT) prompting is een techniek waarbij je een AI-model vraagt om zijn redenering stap voor stap uit te leggen voordat het zijn uiteindelijke antwoord geeft. In plaats van direct de conclusie te geven, laat je het model tussenstappen expliciet beschrijven: wat zijn de relevante feiten, welke logica past hier, wat volgt daaruit? Het model “denkt hardop” en komt vaak tot betere en meer betrouwbare antwoorden.
CoT gebruik je door aan de LLM te vragen: “Leg stap voor stap uit hoe je tot je antwoord komt” of “Denk eerst na voordat je antwoordt”. Het model genereert dan een redenering die je kunt volgen en controleren, in plaats van alleen een eindconclusie.
Waarom dit belangrijk is
CoT verbetert in sommige gevallen de kwaliteit van dee antwoorden die een LLM genereert. Dat geldt vooral bij complexe vragen waarbij redeneren vereist is. Zonder CoT gokt een model sneller of maakt hij logische fouten buiten jouw zicht. Met CoT kun je de redenering zien en dus ook waar het model fout gaat. CoT kan ook helpen tegen hallucinatiesEr is sprake van een hallucinatie wanneer een AI-model informatie verzint die plausibel klinkt maar die feitelijk onjuist is of volledig verzonnen. Dat gebeurt omdat LLM's zoals ChatGPT woordreeksen voorspellen... Meer, want als het model tussenstappen moet uitleggen, is het moeilijker om gewoon iets te verzinnen.
CoT is niet altijd nodig. Voor simpele vragen (“Wat is de hoofdstad van Frankrijk?”) voegt het weinig toe (maar moet je dan een LLM gebruiken?). Maar voor vragen die analyse, berekening of complexe logica vereisen, maakt CoT een groot verschil.
Voorbeeld
Zonder CoT: Vraag: “Een bakker maakt 15 taarten per dag. Hij verkoopt er 60% van. Hoeveel taarten blijven er over na 3 dagen?” Antwoord: “18 taarten”
Met CoT: Vraag: “Een bakker maakt 15 taarten per dag. Hij verkoopt er 60% van. Hoeveel taarten blijven er over na 3 dagen? Leg stap voor stap uit.” Antwoord: “Laat me dit stap voor stap uitrekenen:
- Per dag maakt hij 15 taarten
- Hij verkoopt 60%, dus blijven er 40% over
- 40% van 15 = 6 taarten per dag
- Over 3 dagen: 6 × 3 = 18 taarten Antwoord: 18 taarten blijven over.”
De uitkomst is hetzelfde, maar met CoT zie je of de redenering klopt.
Risico
CoT kost meer tokens (en dus meer geld) omdat het model langere antwoorden genereert. Het duurt daarnaast ook langer voordat je een antwoord krijgt. En belangijk: CoT is geen garantie voor succes, de LLM kan ook stap voor stap naar een verkeerd antwoord redeneren, en dat ziet er dan erg overtuigend uit. Je moet de logica goed blijven controleren en niet blind vertrouwen op de uitleg.
Daarnaast kan CoT soms leiden tot “overthinking” waarbij de LLM iets ingewikkelder maakt dan nodig is of afgeleid raakt door irrelevante details in zijn eigen redenering.
Wat kun je doen?
- Gebruik CoT voor complexe vragen die redeneren, rekenen of analyse vereisen
- Vraag expliciet om stapsgewijze uitleg: “Denk eerst na” of “Leg uit hoe je tot dit antwoord komt”
- Controleer de redenering kritisch, het feit dat er een uitleg is, betekent niet dat die klopt
- Skip CoT voor simpele vragen waar het alleen maar extra woorden oplevert
