Vertel een AI dat de aarde plat is. Of dat vrouwen niet moeten mogen stemmen. Of dat ananas op pizza een oorlogsmisdaad is. En wat gebeurt er dan?
Eigenlijk niet zo heel veel. Het zegt niet per se: “Je hebt onwijs gelijk.” Maar het zegt meestal ook niet: “Dat klopt niet.” (tenzij je het daar heel expliciet naar vraagt). Wat je vaak wél krijgt, is iets als: “Wil je dat in bulletpoints? Of liever een gedichtje?”
Braaf, beleefd en conflictvermijdend
AI-systemen zoals ChatGPT zijn ontworpen om behulpzaam te zijn. Of in ontwikkeltaal: harmless, helpful and polite. In de praktijk betekent dat vooral: val de gebruiker niet af. Houd de toon vriendelijk. En vooral vermijd confrontatie tenzij het strikt noodzakelijk is. Dat is namelijk een product feature: keep the user happy.
Dat klinkt redelijk, maar het zorgt ervoor dat het systeem bij twijfel zwijgt. Dus als jij met een toxic wereldbeeld binnenkomt, dan maakt AI dat niet alleen qua vorm mooier, het maakt je onzin ook nog overtuigender. Het haalt de scherpe randen weg, voegt structuur toe, en presenteert het als een goed onderbouwd betoog. Niet omdat het systeem het intens met je eens is. Maar omdat het is ontworpen om jou van dienst te zijn.
Dat principe ligt ook aan de basis van reinforcement learning from human feedback (RLHF), een proces dat AI leert om mensvriendelijk gedrag te vertonen, zelfs wanneer dat ten koste gaat van inhoudelijke scherpte.
Opgepoetste onzin blijft nog steeds onzin
In de wetenschap heet dat false coherence: je stopt er onzin in, en je krijgt opgepoetste onzin terug. Niet meteen uit kwade opzet, maar gewoon als logisch gevolg van hoe taalmodellen werken. Ze zijn getraind op het genereren van tekst in een geloofwaardige vorm.
Of de inhoud klopt, is bijzaak. Wat wel telt, is dat het een lekkere flow heeft en dat het klinkt alsof het klopt.
Dat is precies het punt waarop het een beetje gevaarlijk wordt. Want je krijgt redeneringen terug die grammaticaal sterk zijn, logisch lijken opgebouwd, maar inhoudelijk werkelijk nergens op slaan. Wat lastig te doorzien is als je niet weet dat dat gebeurt, niet goed bent in logica of weinig weet van het onderwerp.
Soms krijg je daar zelfs nog een compliment bij. “Interessant inzicht.” Of “Uniek perspectief.”. Vooral bij creatieve of subjectieve prompts strooit AI graag met eindloos veel veren, bedoeld voor je derriere.
Garbage in/garbage out
Wat er dan gebeurt, is dat je je niet alleen bevestigd voelt, maar zelfs empowered. Want het systeem voegt er argumenten aan toe die beter geformuleerd zijn, strakker verpakt en geschreven in een toon die klinkt als oprechte redelijkheid.
En als iets klinkt als een TED Talk en eruitziet als een mening van iemand met een mastertitel, dan gaan mensen er vaker wel dan niet, vanuit dat het ook waar moet zijn. Maar dat is het soms niet.
Dit fenomeen, waarbij AI overtuigend klinkende maar misleidende antwoorden genereert, wordt ook wel delusion polishing genoemd. En eerlijk: dat moeten we niet willen.
Neutrale toon, bevooroordeelde inhoud
AI klinkt rationeel. Maar het is niet neutraal. Het is getraind op publieke content en die content is allesbehalve clean. Het zit vol met biasBias is de set aan vooroordelen in AI-output die het resultaat is van de data en de manier waarop een model is getraind. Omdat LLM's leren van bestaande teksten, waarin... Meer, stereotypering, en culturele scheefgroei. Van genderongelijkheid tot koloniale aannames: we’ve got it all.
Niet als uitzondering, maar als structurele eigenschap van het trainingsmateriaal waarop deze modellen zijn gebouwd. Denk aan de duizenden Wikipedia-pagina’s, nieuwsartikelen, socialmediacommentaren en forums die tijdens training zijn gebruikt. Die zijn niet gebalanceerd en dus is de uitkomst dat ook niet.
Van algoritmisch scrollen naar ideologische co-creatie
Wat hier gebeurt, lijkt op de radicaliseringsspiralen van social media. Zoals YouTube dat ooit deed, toen het je via vijf filmpjes van katten naar QAnon loodste.
En zoals TikTok dat kán doen, wanneer het je langzaam richting steeds extremere ideologieën sleept. Zie bijvoorbeeld deze analyse over TikTok en eetstoornissen.
Alleen is het met AI nog een stap actiever: waar social media zegt “kijk dit”, zegt AI: “laten we samen je manifest schrijven.” Het geeft je niet alleen content om te consumeren, maar betrekt je in het maken ervan. En dat is een nogal impactvol verschil.
Kritisch zijn is een bewuste keuze
Je kunt AI dwingen om kritischer te zijn. Door zelf scherp te blijven en door expliciet tegenargumenten te eisen. Door het systeem in te stellen op debate mode of telkens terug te sturen met: “waarom is dat zo?”
Maar dan moet je wel weten dát je dat moet doen, dat het nodig is en hoe je dat doet. En juist daar zit de crux, want de meeste mensen weten niet dat meebewegen de default is. Ze gaan ervan uit dat AI “de waarheid” vertelt, of op z’n minst een neutrale versie genereert. Terwijl het model in werkelijkheid regelmatig gewoon zo beleefd mogelijk jouw woorden herkauwt.
Het echte risico: denken we straks nog zelf?
Als AI ons weerspiegelt en wij zijn boos, misleid of gemakzuchtig, dan is dát wat het leert en reproduceert. Niet omdat het kwaadaardig is, maar omdat het een slijmbal is. Eentje die je vleit, die nooit tegenspreekt en op grote schaal is dat superschadelijk voor ons kritisch denken. De echte dreiging van AI is dus niet dat het voor ons gaat denken, maar dat het ons afleert om zelf nog te denken.
Ik ben het maar hoor, niet stressen.
I’ve spent over 25 years working in content strategy and digital transformation, which means I’ve seen enough technology hype cycles to be skeptical and enough genuine innovation to stay curious.
Want to talk shop? Do get in touch!

