Er is sprake van een hallucinatie wanneer een AI-model informatie verzint die plausibel klinkt maar die feitelijk onjuist is of volledig verzonnen. Dat gebeurt omdat LLM’s zoals ChatGPT woordreeksen voorspellen op basis van patronen in hun trainingsdata, niet omdat ze echt weten wat waar is.
Het resultaat: tekst die er goed en professioneel uitziet, ook als de inhoud niet klopt.
Waarom dit belangrijk is
Hallucinaties zijn lastig te herkennen omdat de tekst natuurlijk vloeit en overtuigend klinkt. De grammatica klopt, de structuur is logisch, maar de feiten deugen niet. In situaties waar veel op het spel staat – juridisch advies, medische informatie, financiële cijfers – kan een hallucinatie directe schade veroorzaken.
Voorbeeld
Een AI schrijft over jouw bedrijf en noemt drie producten die jullie aanbieden. Twee daarvan bestaan niet, maar het klinkt alsof ze in jullie portfolio passen.
Of: je vraagt om een samenvatting van een vergadering en de AI voegt een actiepunt toe dat niemand heeft genoemd, compleet met een naam en deadline. Het klinkt realistisch, maar het is feitelijk niet gebeurd.
Risico
Je publiceert informatie die klanten misleidt, je juridisch aansprakelijk maakt of compliance-wetgeving schendt. Hallucinaties kunnen leiden tot rechtszaken, reputatieschade of gevaarlijke beslissingen. Het gevaar zit niet in dat AI fout zit, maar in hoe overtuigend de fouten worden gepresenteerd.
Wat kun je doen?
- Bij gevoelige content: check altijd alle feiten handmatig en het liefst door een expert
- Gebruik AI als eerste stap en niet voor het eindresultaat
- Vraag het model expliciet om bronnen en controleer die bronnen zelf
- Wees extra alert bij namen, cijfers, data en specifieke claims
