Hoe kan het dat content letterlijk is wat GenAI maakt, maar content niet aan tafel zit met data, IT en compliance. Dat moet je me echt uitleggen. Make it make sense.
Met wie ik ook praat, waar ik ook even in de keuken mag kijken, het beeld is hetzelfde. Waar het gaat om waar relevante beslissingen en richtlijnen worden gemaakt voor de inzet van GenAI, zijn dit de stemmen die meestal aan tafel zitten:
- IT bewaakt stabiliteit, performance en veiligheid van de systemen.
- Data bewaakt juistheid, structuur en herkomst van zowel structured als unstructured data.
- AI Governance / Ethics richt zich op transparantie, fairness, accountability en risicobeheersing van het modelgedrag.
- Compliance bewaakt naleving van wet- en regelgeving, zowel intern als extern.
Maar geen van deze domeinen heeft betekenis als primaire focus: hoe informatie wordt geïnterpreteerd en ervaren door de eindgebruiker. En juist dat is waar GenAI zich onder de streep mee bezighoudt.
Misvatting
Kijk, ik snap het wel een beetje. Want AI en nu GenAI zijn lange tijd een primair technisch feestje geweest. Maar dat uitzicht is de afgelopen jaren snel en bijna onherkenbaar veranderd.
AI werkt namelijk niet alleen op data, het werkt met taal. En taal heeft niet alleen informatieve waarde, maar ook interpretatieve waarde: het creëert betekenis, beïnvloedt perceptie, en stuurt gedrag. Die interpretatieve waarde is geen verflaagje, niet cosmetisch en ook geen kunst.
Content is:
- De bron voor GenAI, denk aan de trainingsdata, kennisbanken, intranet, beleidsdocumenten, je eigen website
- Onderdeel van de instructie voor GenAI: contentrichtlijnen in je prompts, de guardrails
- Output, de tekst die gebruikers (waar het ook naartoe wordt gestuurd) uiteindelijk te zien krijgen.
Het zit dus door de hele loop en daarmee is content infrastructuur. Dat was het altijd al trouwens, maar nu we iedereen de tools in handen geven om het te maken én iedereen steeds meer met de output te maken krijgt als ontvanger, is het een nog relevantere failure point geworden.
En ja, het is een lus
De content die wordt gegenereerd door GenAI, wordt vaak de content die ook weer wordt gebruikt om GenAI mee te voeden. Verkeerde beslissingen aan de ontwerptafel hebben dus cumulatieve impact op de kwaliteit van zowel input als output.
Wat begint als een typefout wordt een nieuwe gehallucineerde productnaam (ja, hier overdrijf ik lichtjes, maar je snapt me) of wat begint als een net iets andere merkstem wordt nu de stem waarin de organisatie spreekt (op z’n minst zonde van je dure brand voice traject).
Dit is een architectuur-risico dat zich snel en eindeloos vermenigvuldigt met behulp van GenAI.
IT- en datagovernance zijn niet genoeg
Elke bestaande governancediscipline (IT, Data, Ethics, Compliance) regelt hoe het systeem werkt of welke informatie het systeem deelt/mag gebruiken.
Maar geen van de domeinen gaat over betekenis, oftewel interpretatie van informatie. Ik vermoed dat dat komt omdat het feit dat AI’s product betekenis is (of taal betekenis draagt), vanuit het perspectief van de huidige spelers obnvoldoende duidelijk is.
Maar interpretatie is wat gedrag aanstuurt, zowel binnen een model als binnen een organisatie.
In IT-termen is interpretatie (of betekenis) de vertaallaag tussen menselijke intentie en de uitvoering door een machine. In datatermen is het metadata in beweging: de contextuele signalen die het systeem vertellen hoe informatie moet worden gebruikt, niet alleen welke informatie moet worden gebruikt.
Betekenis klinkt misschien vaag, maar dat is het niet. Het is de set interpretatieregels die bepaalt hoe een AI-systeem taal begrijpt en dus of het zich veilig, consistent en compliant gedraagt. Kortom: dat heeft impact op de andere disciplines, maar dát wordt nog te vaak niet gezien.
Content blijkt niet altijd even goed in…content
Laat ik hier benadrukken dat de onduidelijkheid deels de eigen schuld is van contentmensen zelf. Zij hebben zich de afgelopen 20 jaar laten wegdrukken tot het laatste station in elk project (hier en daar gaat het beter dan dat, maar meestal niet).
Content heeft zich laten aanpraten én gelooft soms zelf, dat zij kunst maken.
Maar dat is onzin. Tenzij je een column of boek schrijft, is content een infrastructurele discipline. Een productpagina die moet voldoen aan compliance, legal, inhoudelijk, toegankelijkheid, SEO, technische en andere voorwaarden, is geen kunstobject. Je zou het is toegepaste linguistics binnen kaders kunnen noemen.
Content governance stelt dan ook hele andere vragen dan de andere disciplines:
- Wat betekent dit? Tegenover Werkt dit? (IT)
- Wat doet dit in context? Tegenover Waar komt het vandaan? (Data)
- Past dit bij onze merkstem? Tegenover Is het eerlijk/transparant? (AI Ethics)
- Wat doet dit met de gebruiker? Tegenover Is dit toegestaan? (compliance)
In the age of AI moeten de contentvragen ook beantwoord worden. Maar gebeurt nu dit vaak pas later, als het überhaupt gebeurt.
Maar omdat content zowel in input, throughput (prompts, waar ze ook leven) als output leeft, is het een ontwerp/architecturele overweging die scherp mee moet worden genomen bij inrichting van de fundering van AI projecten. Niet als enige factor, maar als belangrijke factor.
Want eerlijk, als het product van AI taal is, dan is AI-governance zonder contentexpertise niet alleen incompleet, het is volledig incoherent.
Het nuanceprobleem
Contentexperts signaleren risico’s die voor IT- en datateams onzichtbaar blijven, omdat zij niet getraind zijn in de nuance van taal. En juist daar sluipt schade binnen.
Een paar voorbeelden:
- In prompts zitten vaak verwijzingen naar contentrichtlijnen — denk aan zaken als zinslengte, structuur of tone of voice. Als een nieuw design vraagt om kortere zinnen (bijvoorbeeld maximaal 10 in plaats van 12 woorden), maar die regel niet wordt aangepast in de prompt, blijft de AI werken met verouderde instructies.En dat gebeurt niet één keer, maar in tientallen of zelfs honderden prompts tegelijk, waardoor een kleine afwijking zich stilletjes door het hele systeem verspreidt.
- Een antwoord kan feitelijk juist zijn, maar inhoudelijk ongepast in toon. “Mijn moeder is ziek” vraagt een andere reactie dan “mijn band is lek.” De AI kent dat verschil niet altijd even goed, tenzij iemand dat expliciet heeft vastgelegd.
- Kleine veranderingen in formulering veranderen de betekenis. Wat ooit “klant mag zelf kiezen” heette, wordt “klant kan zelf kiezen” en ineens is de verplichting verdwenen.
- De AI begint subtiel anders te formuleren dan de organisatie bedoelt. De toon verschuift van zorgvuldig naar stellig, van adviserend naar voorschrijvend. Daar gaat je brand voice.
Tegen de tijd dat dit zichtbaar wordt als een technisch probleem, is de schade al vermenigvuldigd: verkeerde interpretaties zijn verspreid, hergebruikt en ingeweven in nieuwe teksten.
Wat hier misgaat, is geen schrijffout maar een verschuiving van betekenis. Een sluipend risico dat niet in code te vangen is, maar wel degelijk systeemgedrag verandert.
Kunnen we dit niet gewoon technisch oplossen?
Ja, er zijn technische instrumenten: versiebeheer voor prompts, metadata-tagging, retrieval-systemen, validatiescripts. En ja, die zijn hard nodig.
Maar het probleem is niet dat techniek faalt. Het probleem is dat niemand aan tafel zit die kan bepalen wélke technische oplossing voor wélk contentprobleem werkt.
Sommige dingen kun je: een maximum zinslengte, verplichte disclaimers, verboden termen. Andere dingen vereisen menselijke review: of een antwoord gepast is in een emotioneel geladen situatie, of de toon aansluit bij merkstem, of de nuance klopt.
Die grens trekken, wat automatiseer je, wat valideer je handmatig, en hoe borg je dat in je architectuur, dát is waar contentexpertise voor nodig is. Niet om techniek te vervangen, maar om te ontwerpen waar techniek wél en niet werkt voor betekenisgeving.
Knowledge management zorgt ervoor dat de juiste content beschikbaar is. Het zegt niet of die content nog betekent wat je denkt dat het betekent, of het nog past bij hoe je communiceert, of het in deze context het juiste doet.
Beslissen welke aanpak nodig is, en wanneer, vraagt inzicht in wat de content moet doen: informeren, overtuigen, geruststellen, naleving afdwingen. Dat is geen technische of organisatorische afweging, maar een inhoudelijke keuze met technische uitvoering.
Oké, maar kunnen we dit niet gewoon oplossen met betere prompts?
Ik hoor je: “we trainen mensen gewoon beter in prompten, dan komt het wel goed.”
Prompt engineering helpt individuele gebruikers om betere output te krijgen, maar het lost het governanceprobleem niet op. Prompts zijn veelal gedecentraliseerd, iedereen schrijft ze anders, ze worden niet systematisch bijgehouden en van wat ik heb gezien, wordt er op de meeste plekken nog geen promptstandaard afgedwongen. Zonder governance weet je niet eens wélke prompts er in omloop zijn, laat staan of ze nog actueel of on-brand zijn.
Bovendien (en dit is belangrijk) prompt engineering gaat ervan uit dat gebruikers weten wat goede content is. En goede content ontstaat niet door het aselect toepassen van ál je content guidelines, maar juist door het contextueel toepassen ervan. Raad wie precies die som maakt? Juist!
Maar, de human in the loop dan? Content editors die de output checken?
Dit is de “we lossen het wel handmatig op”-reflex. Maar dat is niet schaalbaar, tenzij je bereid bent om het tempo van je AI projecten ernstig terug te schroeven. GenAI produceert content op een tempo en volume dat handmatige review meestal onhaalbaar maakt. En tegen de tijd dat een editor iets signaleert, is de output vaak al verspreid of gekopieerd.
Bovendien lost review achteraf het ontwerpprobleem niet op. Als prompts structureel verouderd zijn, als bronmateriaal niet actueel is, als er geen richtlijnen zijn voor hoe AI content moet genereren, dan blijf je symptomen fixen in plaats van de ooorzaak aan te pakken.
Is dit niet gewoon een taak voor Communicatie/Marketing? Die betrekken we toch al!
Organisaties zien content nog steeds als een afdeling, niet als een governance-domein. Communicatie en Marketing gaan over externe content en campagnes. Maar GenAI produceert content over het hele bedrijf: HR-documenten, klantenservice-antwoorden, interne FAQ’s, compliance-rapportages, technische documentatie.
Die afdelingen hebben de expertise, maar niet de scope, het mandaat, of de seat-at-the-table om over alle AI-gegenereerde content beslissingen te nemen. Content governance is breder dan één afdeling: het is een cross-functioneel domein, net als data en IT.
Ontwerpkeuzes, geen noodpleister
Het belangrijkste is dat dit niet gaat over een extra review aan het eind, maar over meedenken bij het ontwerp zelf:
- Hoe voorkom je prompt-rommel, via techniek, metadata, redactie, of alle drie?
- Hoe zorg je dat bronmateriaal actueel blijft?
- Hoe ga je om met context, betekenis en gedragsturing
Dat zijn ontwerpkeuzes die inhoudelijke expertise vereisen.
Zorg wel voor een zwaargewicht
Mocht het tot dusver niet duidelijk zijn: ik heb het hier niet over een contentspecialist, die aan moet aan de AI-governance-tafel. Ik heb het over een contentstrateeg die goed weet dat content geen kunst maar architectuur is, die pragmatisch mee kan denken en die betekenis binnen het AI-domein als configuratie ziet en kan inzetten.
Dat betekent dat deze persoon moet weten hoe de praktijk eruit ziet, wat betekenis is en dat strategisch moet kunnen toepassen in de zeer volatiele wereld van AI, terwijl deze rol ook nog vraagt om een serieuze gesprekspartner te zijn voor de andere partijen. Je stagiair gaat het niet redden dus, wil ik maar zeggen.
Dus pak ‘m beet
Contentgovernance is een volwaardige pijler naast IT-. compliance, AI ethics en datagovernance. Niet omdat content belangrijker is, maar omdat het gaat over een laag van risico’s en kwaliteit die de anderen simpelweg niet kunnen zien.
Organisaties die dit niet doen, besturen wel de fabriek en ook de machines, maar niet de kwaliteit van het product dat eruit rolt. Ze optimaliseren de infrastructuur, terwijl wat gebruikers uiteindelijk ervaren (namelijk de content) zo goed als ongecontroleerd blijft.
Ik ben het maar hoor, niet stressen.
I’ve spent over 25 years working in content strategy and digital transformation, which means I’ve seen enough technology hype cycles to be skeptical and enough genuine innovation to stay curious.
Want to talk shop? Do get in touch!




AI maakt geen content. AI reproduceert content. Wat AI doet is plagiaat plegen, maar net als een zwak begaafd kind, kun je het niet aanrekenen. AI haalt informatie uit bestaande bronnen en heeft geen mogelijkheid te weten wat waar en onwaar is. Handig om te gebruiken, het scheelt eigen zoektijd, maar het is gevaarlijk alsook de AI gebruiker niet weet wat AI is en AI ziet als orakel.
Dank je vlierbloesem, hoewel dat waar is, is dat niet waar dit artikel over gaat. Ik heb wel al wat andere artikelen geschreven, die zijdelings of direct andere risico’s beschrijven van GenAI, maar this is not that.