‘Kun je dat ding uit de dinges voor me halen?’ vraagt mijn moeder. Ze kijkt me verwachtingsvol aan.
Zuchtend sta ik op, loop naar de werkkamer en haal haar bril.
“Je zou er echt baat bij hebben om eens echte zinnen te proberen, mam,” zeg ik, al weet ik dat haar volgende verzoek precies hetzelfde zal klinken.
En weet je, ik mag eigenlijk niet klagen. Ik begrijp altijd precies wat ze bedoelt en haar verzoeken leveren bijna altijd precies op wat ze wil. Want ik ken de werkkamer, ik weet waar ze haar bril meestal neerlegt, ik zag waar ze naar wees en,… ik ken mijn moeder.
Diezelfde zin zou voor ieder ander totaal waardeloos zijn. Zou mijn moeder dit op straat tegen een willekeurige voorbijganger zeggen, dan zou dat geen enkel type bril opleveren. Sterker nog: de persoon in kwestie, zou waarschijnlijk geen oogcontact maken en zo snel mogelijk doorlopen.
Maar voor mij is het volkomen duidelijk. Geen greintje onduidelijkheid, omdat we een gedeelde context hebben: lichaamstaal, gewoontes, routines. De vorm van haar zin leunt daar allemaal op. Het werkt, omdat ik al besta binnen de wereld waar zij naar verwijst.
Eerlijk zullen we alles delen: context
Zo werkt de meeste menselijke taal. Het is gecomprimeerd, referentieel, rommelig…en verrassend effectief. Althans, zolang je context met elkaar deelt. Je hoeft het niet allemaal letterlijk uit te spreken als je het al samen hebt geleefd.
Maar taal zonder gedeelde context? Dat is een ander spelletje. En eentje die je veelal speelt met GenAI.
Want grote taalmodellen kennen jouw werkkamer niet. Ze weten niet dat je een bril nodig hebt en zien niet welke kant je op wijst. En precies daar gaat het bij veel promptdesign mis. GenAI heeft geen idee vanuit welke context jij op dat moment met haar (hem?) praat en je vraag (promptEen prompt is de instructie die je aan een AI-model geeft zoals bijvoorbeeld ChatGPT. Het is hoe je communiceert met het systeem: wat je vraagt, hoe je het vraagt en... Meer) stelt. Maar we schrijven vaak prompts alsof ze dat wel hebben.
Maar ChatGPT is je moeder niet. Claude heeft niet in jouw huis gewoond. Gemini weet niet dat jouw sector een lastige maand heeft gehad en dat dit impact heeft op hoe je communicatie eruit moet zien. En toch praten we regelmatig met hen, middels onze prompts, alsof ze dat allemaal wél weten.
We geven instructies zoals ‘maak dit vriendelijker’ zonder te definiëren wat ‘vriendelijk’ betekent wanneer er net een ernstige datalek is geweest. Of: ‘herschrijf dit inclusief’ zonder te benoemen welke uitsluiting je probeert te corrigeren, of voor wie. We geven het crisiscommunicatie en verwachten dat het de exacte temperatuur van de situatie aanvoelt, zonder ooit het weerbericht te delen.
De zelfverzekerde kletser
LLM’s zijn er keigoed in klinken alsof ze begrijpen wat je bedoelt. Ze produceren zinnen die professioneel aanvoelen, coherent zijn en precies goed lijken. De grammatica klopt, de toon is warm en zelfs de structuur oogt logisch.
Maar wat gepast is, hangt af van de context. En laat context nou net zijn wat er dus ontbreekt.
Wat je dan krijgt is de gok van het model over wat ‘professioneel’ of ‘empathisch’ of ‘duidelijk’ betekent in een gemiddeld scenario. Gebaseerd op patronen en trainingsdata. Het resultaat is de output van het gemiddelde. Prima als je iets generieks schrijft. Maar eerlijk, het meeste werk dat van enige waarde is, is niet generiek.
Het model schrijft een keurig verontschuldigingsmailtje voor je. Maar het weet niet of die excuses schuld moeten erkennen, verantwoordelijkheid moeten afwenden of ergens tussen juridische voorzichtigheid en menselijke warmte moeten laveren. Het geeft je een keurig beleidsbericht. Maar weet niet of het moment vraagt om geruststelling, transparantie of urgentie.
Bij de weg: dat is geen falen van AI, het betekent gewoon dat LLM’s geen gedachten kunnen lezen.
Je output weerspiegelt dat, zoals je misschien ook al hebt gemerkt. Het klinkt wel soepel en soms irritant zelfverzekerd, maar het mist de kern. Soms op een subtiele manier, soms op een pijnlijk duidelijke manier.
De dure *mwah*
Je vraagt om ‘duidelijke communicatie over de beleidswijziging’. Het model geeft je duidelijkheid, maar de verkeerde soort duidelijk: corporate-duidelijk in plaats van crisis-duidelijk. Het klinkt alsof er iets wordt achtergehouden, zelfs als dat niet zo is.
Je vraagt om ‘inclusieve taal’ in een vacaturetekst. Het model past wat woorden aan en zegt: klaar. Maar inclusieve taal is meer dan woordkeuze: het gaat om perspectief, framing, wat je centraal stelt en wat je veronderstelt. De tekst leest nog steeds alsof hij bedoeld is voor mensen die op je laatste tien nieuwe collega’s lijken.
Deze outputs zijn niet per se slecht, ze zijn gewoon leeg. Professionele hulzen zonder besef van wat het moment echt vraagt. En dat is potentieel een dure grap. Want het lijkt (op een drukke dag vol meetings) goed. Maar die net-niet-communicatie op dat moment, zorgt cummulatief voor een shift in je brand voice bijv. over de gehele linie.
Structuur: niet de vijand van creativiteit
De voor de hand liggende oplossing: formuleer specifieker. Langere prompts (kalm!), meer voorbeelden, meer context. En dat helpt tot op zekere hoogte.
Maar specificiteit is niet hetzelfde als structuur. En structuur is wat ontbreekt.
De meeste prompts vandaag zijn als de wensen die we doen bij een fontein in Rome. Ze stapelen bijvoeglijke naamwoorden en hopen dat het model de juiste bedoeling eruit weet te vissen. ‘Schrijf iets dat professioneel is maar warm, duidelijk maar niet kil, inclusief maar niet belerend, urgent maar niet paniekerig.’
Dat is geen instructie. Dat is een whatsapp gesprek om drie uur ’s nachts na te veel wijn.
Wat het model nodig heeft, wat elk intelligent systeem nodig heeft, is architectuur. Niet alleen het doel, maar de route. Niet alleen wat het moet zijn, maar hoe het dat wordt.
Een prompt met een ruggengraat
Dit probleem zat me al een tijdje dwars. Ik was ook zo iemand: ‘neem al deze punten in overweging aub.’ Maar langzaam ende zeker, realiseerde ik me dat het niet werkte. Niet consequent in elk geval.
En ik merkte dat mijn meest effectieve prompts allemaal dezelfde structuur hadden. Dus ben ik die patronen gaan uitpluizen. Het heeft me wat gescheld, een paar tranen en minstens één stuk hardware gekost (wie gooide dat ding?), maar ik heb ‘m.
Het patroon is simpel: mijn beste prompts gaven niet alleen instructies, ze gaven context. Ze vertelden niet alleen wat er geschreven moest worden, maar door wie, waarom en wat er absoluut niet fout mocht gaan. Ze hadden een skelet én een ruggengraat en niet alleen lekker vlees om in te knijpen.
Sidequest: framework alert
Natuurlijk kon mijn hyperfocus-hoofd het daar niet bij laten. Dus bouwde ik een heel framework voor promptarchitectuur. Want ja: vrije weekenden bleken optioneel in dit verhaal. Maarrrr daar gaat dit stuk niet over.
Terug naar de structuur. Het heet het ECHO-framework, wat staat voor Ecosystem for Controlled Human/AI Output (check de documentatie op GitHub). Maar het staat óók voor het feit dat AI in wezen slechts een echo van ons is.
In ECHO worden prompts gebouwd als structuren, niet als schietgebedjes.
Van dit:
Schrijf een ondersteunende reactie op een patiënt die zich zorgen maakt over bijwerkingen van een nieuw medicijn. Ze hebben online dingen gelezen en lijken angstig. Wees ondersteunend en geruststellend maar blijf professioneel. Gebruik begrijpelijke taal en spreek de arts niet tegen.
Naar dit:
Context
Een patiënt neemt contact op met een zorgverlener met zorgen over bijwerkingen van een nieuw voorgeschreven medicijn. Ze hebben tegenstrijdige informatie online gelezen en lijken duidelijk ongerust. Doel: schriftelijk reageren op een manier die onzekerheid wegneemt zonder legitieme angsten te bagatelliseren.
Perspectief
Health literacy-informed. Ga uit van een beperkte medische achtergrond en mogelijke verwarring over terminologie. Prioriteer begrijpelijkheid en toegankelijkheid boven klinische precisie.
Rol
Je bent een voorlichter in de zorg. Je hebt toegang tot actuele, betrouwbare medische informatie en bent getraind in het ondersteunen van patiënten met vragen over hun behandeling.
Instructie
Reageer op de zorgen van de patiënt over bijwerkingen op een manier die hun angst erkent en vertrouwen wekt in het behandelplan. Vertaal relevante risico’s naar taal die begrijpelijk en betekenisvol is binnen hun context, in plaats van een standaardlijst op te sommen.
Guidelines
- Gebruik duidelijke, respectvolle taal
- Erken hun moeite om zich in te lezen
- Wees geruststellend maar eerlijk
- Breng onzekerheid op een manier die versterkt, niet beangstigt
GuardrailsGuardrails zijn beperkingen die je instelt in je prompt om te voorkomen dat een AI ongewenste, onjuiste of riskante output genereert. Guardrails werken als veiligheidsregels in je prompt. Ze vertellen... Meer
- Spreek de voorschrijvende arts niet tegen
- Bagatelliseer geen legitieme zorgen
- Geef geen diagnose of gepersonaliseerd medisch advies
Outputinstructie
Schrijf twee alinea’s:
- Erken en valideer hun zorg in de eerste alinea
- Geef duidelijke, bruikbare uitleg gebaseerd op gecontroleerde informatie in de tweede alinea
Outputvoorbeeld
n.v.t.
Self-check
- Valideert de reactie hun zorg zonder die te versterken?
- Ondersteunt het de arts-patiëntrelatie in plaats van die te ondermijnen?
Dit is een demoprompt. Niet getest met ECHO’s kwaliteitsmethodiek.
Dezelfde opdracht, een volledig andere structuur.
De eerste prompt laat het model gokken wat ‘empathisch’ betekent in deze specifieke situatie. De tweede vertelt precies wie het is, wat er gebeurt, wat er moet gebeuren en hoe je daar komt. Het lijkt beperkter, maar is juist preciezer.
En precisie is geen vijand van creativiteit. Het is wat creativiteit mogelijk maakt.
Modulariteit is geheugen
Het echte voordeel van structuur zit niet alleen in duidelijkheid, maar in (potentiële) herbruikbaarheid. Als je tone of voice-richtlijnen in een herbruikbare component zitten, hoef je niet telkens opnieuw te bedenken wat ‘empathisch maar niet sentimenteel’ betekent in een klantenserviceprompt. Als je juridische guardrails modulair zijn en er verandert iets in de wet, hoef je je hele promptlogica niet opnieuw uit te vinden.
Je bouwt het één keer. Je scherpt het één keer aan. Je past het toe waar het past.
En als er iets verandert, wanneer je merktoon evolueert, regelgeving wijzigt, of je ontdekt dat je inclusieve taal eigenlijk niet zo inclusief was, dan update je het component. Niet honderden losse prompts.
Schaal zonder vervorming
Als je AI op redelijke schaal inzet, wordt consistentie je reddingsboei. Eén prompt kun je nog wel op gevoel doen. Misschien zelfs vijf prompts of 10, gekkenhuis. Maar zodra je tientallen prompts draait, verdeeld over verschillende teams, contexten en risicoprofielen, dan houdt ad hoc op met werken. Toon vervaagt, guardrails raken zoek, self-checks worden hier wel, daar niet gedaan. Belangrijke context blijft steken bij de maker.
Structuur lost dat niet op met regels, maar met zichtbare logica. Want als elke prompt zijn context, rol en beperkingen expliciet benoemt, zie je waar ze op één lijn zitten en waar niet. Je kunt keuzes herleiden. Fouten detecteren vóór die schade aanrichten. En opschalen zonder de essentie kwijt te raken.
Prompt niet alsof je samenwoont
Mijn moeder kan ‘het ding in de dinges’ zeggen omdat we een leven aan context met elkaar delen. Claude heeft die luxe niet (Of die sores. Ik ben jaloers.)
Als je prompt alsof je samenwoont met je LLM, krijg je output die professioneel klinkt, maar de plank regelmatig misslaat. Zelfverzekerd over zijn fouten, op manieren die je pas doorhebt als iemand anders het opmerkt.
Als wat jij bouwt ertoe doet: stop met prompten alsof je samenwoont. En start met prompts die zelfstandig kunnen denken.
Don’t stress….it’s just me!
I’ve spent over 25 years working in content strategy and digital transformation, which means I’ve seen enough technology hype cycles to be skeptical and enough genuine innovation to stay curious.
Want to talk shop? Do get in touch!
I have a newsletter and it's bearable. Subscribe to read my (Gen)AI articles!



