Zelfs hype-gevoelige zoomers weten het: AI brengt naast superinteressante kansen ook allerlei risico’s met zich mee. Op ethisch, juridisch en technisch vlak is er genoeg te bespreken. Maar in de dagelijkse praktijk sluimert er nog een risico dat vaak onzichtbaar blijft.
Het speelt zich af in de naden van organisaties, in de overgangen tussen afdelingen waar niemand formeel eigenaar van is of die gewoon niet zichtbaar zijn.
Tot nu toe vingen slimme mensen die gaten pragmatisch op. Een belletje hier, een extra check daar, een stukje intuïtie of ervaring. AI kan, doet en mag dat overigens meestal ook niet. Maar zo wordt het kleine scheurtje in de organisatie potentieel een diepe kloof.
Iedereen dekt (terecht) zijn eigen domein
Elke afdeling heeft AI inmiddels op de radar. IT checkt security, uptime, systemprompts en andere technische aspecten. Compliance kijkt naar wet- en regelgeving. Content let op brandvoice en schrijfregels. Allemaal legitiem en allemaal goed geregeld binnen het eigen domein.
Maar ongemerkt ontstaan problemen precies in de overgangen. Waar de checks van de één ophouden en die van de ander nog niet beginnen.
Hoe lacunes werken in de praktijk
IT: de KPI’s zijn uptime, security en performance. Of een bronbestand inhoudelijk klopt en hoe het zit met de brandvoice? Dat valt buiten hun scope. Dat is het issue van de business. In de praktijk lossen ze dit pragmatisch op door ervan uit te gaan dat de aangeleverde bronnen gewoon correct zijn.
Content: zij weten precies hoe je regels contextueel toepast: toon, doelgroep, type communicatie. Maar ze hebben geen toegang of mandaat om te bepalen hoe teksten door AI-systemen worden opgepakt en hergebruikt. In de praktijk vullen ze nu al gaten intuïtief op, interpreteren zelf waar nodig of herstellen ze fouten achteraf zodra iemand ze opmerkt.
Compliance: hun kaders zijn geschreven voor stabiele documenten en vaste processen. Met dynamische AI-output is dat een stuk minder effectief: elke run kan anders zijn, afhankelijk van context en prompt. In de praktijk pakken ze dit vaak ad hoc op, door te vertrouwen op steekproeven of reactief na een incident.
En eerlijk, veel van deze praktische oplossingen werken prima, totdat ze niet meer werken. En met AI als grote vermenigvuldiger gebeurt dat “niet meer werken” sneller dan ooit.
De gevolgen van rafelranden
Neem Air Canada. Hun chatbot adviseerde een klant dat hij achteraf restitutie kon krijgen voor zijn ticket. Dat was niet waar, maar de chatbot had het ergens opgepikt uit een kennissysteem. Voor IT leek het systeem veilig, voor compliance leek veilig en voor content leek de tone-of-voice netjes. De rechtbank oordeelde dat het tóch de verantwoordelijkheid van Air Canada was. Resultaat: schadevergoeding en reputatieschade.
Of DPD, hun chatbot besloot plotseling om klanten uit te schelden. Een technisch mankement? Niet helemaal. Ergens in de gebruikte bron zat taal die verkeerd werd geïnterpreteerd. Geen afdeling had het gezien, want voor IT was de bron stabiel, voor content was de bron intern en lag dus niet op hun bord, en voor compliance niet risicovol. Het resultaat: reputatieschade die veel groter was dan de fout zelf.
Ook leuk: de McDonald’s drive-thru case. Het systeem werkte technisch gezien keurig, maar begon absurde bestellingen te doen: honderden nuggets, ijsjes bij hamburgers. Voor IT was dat an sich geen veiligheidsprobleem. Voor content geen tone-of-voice-kwestie en voor compliance geen juridisch issue. Maar voor de operatie een ramp, omdat verkeerde orders direct doorstroomden naar voorraad, facturatie en klantenservice.
De dubbele schade
De consequenties van de lacunes tussen afdelingen werken overigens in twee richtingen.
Klanten ontvangen beloften van chatbots die ze niet kunnen en mogen waarmaken, AI-adviseurs werken met verouderde informatie, systemen spreken klanten met een rare of zelfs ongepaste toon aan.
Maar ook intern zijn er risico’s: risk-assessments klinken met AI soms minder risicovol dan ze zijn, compliance-rapporten verliezen nuance, kwartaalcijfers worden door AI rooskleuriger gepresenteerd dan de werkelijkheid.
Foutjes die wel vaker werden gemaakt, maar die nu grotere risico’s opleveren omdat AI ze duizendvoudig herhaalt, enthousiast (en soms dus foutief) interpreteert en soms ook gewoon hallucineert.
Het is overigens niet zo dat mensen onzorgvuldig zijn. Integendeel. IT richt zich terecht op techniek, content op context, compliance op regels. Maar in de naadjes — daar waar domeinen elkaar raken bestaat nog te vaak riskante, maar moeilijk zichtbare, ruimte.
Content: dat is toch cosmetisch?
En voor contentspecialisten speelt nog eens een extra probleem. Want veel van deze fouten worden zichtbaar in de content: verkeerde teksten, verouderde policies, onduidelijke informatie. Waardoor de vinger algauw naar hen wordt gewezen als het fout gaat. En wat ook niet helpt is dat daardoor het het probleem vaak wordt gezien als een cosmetisch probleem. Maar dat is een misverstand.
Content is namelijk geen verflaag, het is infrastructuur. Het is de pijpleiding waardoor informatie door alle systemen stroomt. AI maakt die pijpleiding niet alleen groter, maar ook meedogenloos transparant. Inclusief de fouten die je normaal achter de schermen kon repareren.
Regen -> drup
Om het extra sinister te maken, faalt AI zelden snel, in één grote en duidelijk zichtbare meltdown. Het begint met duizenden kleine druppeltjes: een verkeerd getal hier, een verouderde procedure daar, een onduidelijke formulering ergens anders een content guideline die door mensen wel begrepen wordt, maar die AI aan het hallucineren zet. Individueel onschuldig, samen een stortbui.
Een paar suggesties
Het probleem is daarmee hopelijk duidelijk. GenAI maakt van een klein sterretje in de voorruit van je organisatie, potentieel een volledig kapotte ruit. En ja, dat is al de zoveelste metafoor, maar laat mij lekker.
Waar ik vooral op wil hameren, is dat je de vermenigvuldiger die AI is niet moet onderschatten. Je kunt je gewoon niet langer veroorloven om door je wimpers te kijken en te hopen dat het goed komt. Je zal die scheurtjes moeten vinden, beschrijven en mitigeren.
Hier zijn 5 zaken die je in elk geval kunt doen als je aan de slag gaat met AI en je interne informatiebronnen daarvoor wil gebruiken:
- Behandel ongestructureerde content ook als data
Geef elk document op z’n minst een eigenaar en een vervaldatum. Zonder eigenaar blijft een verouderde policy eindeloos rondzingen in AI-systemen en komt ze op plekken terecht waar niemand verantwoordelijkheid neemt. - Maak AI-toegang afhankelijk van data-eigenaarschap
Is er geen officiële eigenaar? Dan mag AI het niet als bron gebruiken. Zo voorkom je dat losse notities ineens als formeel beleid verschijnen. - Automatische vervaldatums met kill-switch
Zorg dat verouderde content automagisch uit AI-systemen wordt gehaald, net zoals je oude softwareversies patcht of afsluit. - Monitor informatie als infrastructuur
Verouderde content is net zo gevaarlijk als verouderde software. Behandel informatie-updates alsof het security patches zijn. - Implementeer strikte AI confidence thresholds
Laat AI geen gok doen als de kans op een juiste output laag is. Een chatbot die onzeker is over een restitutieregeling moet niet tóch een antwoord genereren, maar direct doorverwijzen naar een mens.
Dit lost niet alles op natuurlijk, maar hopelijk helpt het wel om wat gaten te voorkomen of te dichten. Of geeft het in elk geval inzicht in waar je een aantal gaten kunt vinden.
Uiteindelijk is natuurlijk vooral van belang wat altijd al van belang was, maar nu met die extra bril op: zorg dat de ruimte tussen de teams op een interdisciplinaire manier wordt geanalyseerd en waar nodig gedicht.
In het kortom
Ja, AI introduceert nieuwe risico’s, maar vergroot vooral de oude: daar waar tot nu toe mensen met ervaring en pragmatiek de gaten dichtliepen. AI doet dat niet. Het schuift alles gewoon lekker door en telt het als een geoefende wiskundige bij elkaar op.
En zolang niemand zich met de duivelse details bezighoudt, worden kleine scheurtjes opeens diepe kloven. Want AI vermenigvuldigt problemen sneller dan veel organisaties ze kunnen oplossen.