Laten we het hebben over de ontwerpstructuur van ECHO-prompts. ECHO staat voor Ecosystem for controlled Human/AI Output. De basis van ECHO is de ontwerpstructuur van de prompts. Elke promptEen prompt is de instructie die je aan een AI-model geeft zoals bijvoorbeeld ChatGPT. Het is hoe je communiceert met het systeem: wat je vraagt, hoe je het vraagt en... Meer bestaat uit deze onderdelen/componenten:
- Context
- Perspective (optioneel)
- Role
- Instructions
- Guidelines
- GuardrailsGuardrails zijn beperkingen die je instelt in je prompt om te voorkomen dat een AI ongewenste, onjuiste of riskante output genereert. Guardrails werken als veiligheidsregels in je prompt. Ze vertellen... Meer
- Output Instructions
- Output Example (optioneel)
- Self-check (optioneel)
Het is een modulaire, component based structuur. Het idee is dat je componenten kunt hergebruiken, centraal kan managen en governance kan toepassen op je prompts. Handig in een corporate setting, waar veel prompts door de organisatie zwerven. Wil je meer weten over ECHO, lees dan hier. In deze serie artikelen werk ik elk van de componenten uit.
We starten met het Context component
Wat is het Context component
Het Context-component vertelt de LLM in welke wereld het opereert: wat er gebeurt, wie erbij betrokken is, en waarom het ertoe doet.
Zonder die informatie maakt het model aannames op basis van statistische waarschijnlijkheden uit zijn training. Soms klopt dat toevallig voldoende, maar vaak niet of onvoldoende. Het punt is dat als je dit niet meegeeft, het model het invult en de consistentie van je output eronder lijdt.
Daarnaast geef je, door de context duidelijk te schetsen, de LLM een referentiekader dat bepaalt hoe het elk volgend onderdeel van je prompt interpreteert.
Stel je vraagt aan iemand om een tekst te vertalen naar Spaans, dan maakt het veel uit of dat Mexicaans Spaans of Dominicaans Spaans moet zijn. De instructie is hetzelfde “vertaal naar Spaans”, maar de uitvoering is heel anders.
Waarom is het belangrijk/wat doet dit component?
De Context bepaalt welk deel van zijn trainingslandschap een model gebruikt om tokens te voorspellen.
Zonder Context vist het model theoretisch uit zijn volledige (finetuned) trainingsdata. Mét een duidelijke Context beperk je dat landschap: de LLM sluit patronen uit die niet bij de door jou beschreven situatie passen.
Elk domein, zoals banken, zorg, onderwijs, tech, overheid, HR, heeft eigen taal, prioriteiten, risicogevoeligheden en impliciete communicatienormen. LLMs “kennen” die normen niet expliciet. Maar door Context vooraf te plaatsen, maak je sommige patronen meer onwaarschijnlijk en andere juist meer waarschijnlijk.
“We maken een maandelijkse nieuwsbrief voor de inwoners van Guadalajara” sluit Dominicaanse varianten uit van het Spaans uit. Niet omdat het expert is op het gebied van specifieke typen Spaans, maar omdat die Context de tokenwaarschijnlijkheden verschuift richting patronen die in die situatie voorkwamen in de training.
Zonder Context moet het kiezen uit álle varianten, terwijl je mét Context beperkt welke varianten plausibel zijn.
Hoe het werkt in relatie tot de LLM
Voor LLMs is de positie van informatie in een prompt niet neutraal: de volgorde waarin informatie aangeboden wordt, beïnvloedt hoe het model latere delen van de prompt interpreteert.
Context staat in ECHO vooraan. Dus Context:
- Beïnvloedt hoe latere tokens geïnterpreteerd worden
- Maakt bepaalde woorden en woordpatronen waarschijnlijker in de rest van de output
Positional primacy:
In de praktijk hebben de eerste tokens in een prompt meer invloed op het totale inferentietraject (het proces waarmee het model zijn antwoord genereert) dan latere tokens.
Door te starten met een duidelijke Context, wordt elk volgend component, zoals je Role, Instructions en Guidelines, geïnterpreteerd door de statistische lens die je in het Context-component al hebt gedefinieerd.
Concreet:
Als je schrijft “Er is een storing van vier uur in het betaalsysteem die 10.000 klanten raakt”, dan zijn alle volgende tokenpredictions verschoven richting crisispatronen, urgente taal, en stakeholdermanagement. Niet omdat het model “begrijpt” dat er een crisis is, maar omdat die vroege tokens het “waarschijnlijkheidslandschap” hebben aangepast.
Zonder die vroege verankering opereert de LLM vanuit een breder en generieker deel van zijn trainingdata.
Onderzoek dat dit onderbouwt
Positie in de prompt bepaalt invloed
Onderzoek toont aan dat de volgorde waarin informatie wordt gepresenteerd direct impact heeft op nauwkeurigheid waarmee LLMs redeneren. Modellen presteren tot 30% beter wanneer premissen in logische volgorde worden aangeboden, waarbij vroege informatie als anker functioneert voor latere interpretatie van de prompt.
Bron: Premise Order Matters in Reasoning with Large Language Models
Context aan het begin verbetert taakuitvoering
Analyses over meerdere LLMs laten zien dat input-context aan het begin of in het midden van prompts consistent betere resultaten oplevert dan context aan het eind. Claude Opus was bijvoorbeeld 12% nauwkeuriger bij classificatietaken wanneer de context vooraan geplaatst werd.
Bron: Optimizing Prompts Across LLMs
Contextuele informatie reduceert ambiguïteit
Gestructureerde prompts die expliciete contextuele informatie bevatten, leiden tot meer consistente en relevante output. Het beschrijven van achtergrondinformatie zorgt voor een beter operationeel kader dat het model helpt om nuances te begrijpen.
Bron: Ensuring Consistent LLM Outputs Using Structured Prompts
Wat gebeurt er zonder Context?
Zonder Context moet het model raden welk deel van zijn trainingslandschap relevant is. Het heeft geen anker om te bepalen:
- In welk domein het opereert (tech, zorg, overheid, banking)
- Wat de urgentie of stakes zijn
- Wie de doelgroep is en welk taalniveau past
- Welke domein-typische communicatienormen gelden
Het resultaat: het model kiest standaard voor het statistisch meest voorkomende patroon uit zijn training. Dat is vrijwel altijd generiek en dus niet de taal die passend is bij jouw specifieke situatie.
Concreet voorbeeld:
Zonder Context: “Schrijf een bericht over de vertraging”
Het model genereert iets tussen een vriendelijke app-notificatie en een blogpost-update. Geen gevoel voor urgentie, geen stakeholder-bewustzijn en geen domeinspecificiteit.
Met Context: “Er is een virusuitbraak in het ziekenhuis die 200 patiënten raakt. Schrijf een bericht over de vertraging in behandelingen”
Het model activeert nu medische communicatiepatronen, urgentietaal, stakeholder-management, meer compliance-bewuste formulering.
Dezelfde Instruction, levert een andere uitvoering op, omdat de Context het waarschijnlijkheidslandschap (het deel van de datavijver waar de LLM in vist) heeft aangepast voordat de Instruction werd gelezen.
Context-component failure modes
- Te vage situatiebeschrijving
“We hebben een probleem met klanten” geeft het model te weinig houvast. Welk probleem? Welke klanten? Wat is de impact? Het model vult de gaten in met statistische gemiddelden en dus niet met jouw specifieke situatie. - Context vermengen met Instructions
“We hebben een storing, schrijf een reactie” stopt de Instruction in de Context. Het model krijgt twee signalen tegelijk en kan niet onderscheiden wat situatie is en wat actie moet zijn. Scheid deze altijd: eerst wat er is, dan wat ermee moet gebeuren. - Organisatie-specifieke afkortingen zonder uitleg
“De KYC-flow in onze CDD-proces heeft een RT van 4 dagen” activeert geen relevante patronen als het model niet weet dat KYC = Know Your Customer, CDD = Customer Due Diligence, RT = response time. Vertaal jargon of leg het kort uit. - Te veel context waardoor focus verdwijnt
Een halve pagina achtergrondinformatie over de geschiedenis van het bedrijf, marktpositie, eerdere campagnes en toekomstige plannen verdringt wat écht relevant is voor deze specifieke taak. Het model moet zoeken naar wat belangrijk is. Beperk Context tot wat direct invloed heeft op hoe de taak uitgevoerd moet worden. - Context ontbreekt volledig
Het model krijgt alleen “Schrijf een persbericht” zonder te weten: waarover? Voor wie? In welke situatie? Waarom nu? Het standaardpatroon dat eruit komt, past bijna nooit bij wat je daadwerkelijk nodig hebt.
Kortom
De Context is niet de achtergrondinformatie, maar de laag die bepaalt in welk deel van het trainingslandschap de LLM moet opereren voordat het aan een taak begint.
Zonder Context laat je het model daarnaar raden: welk domein, welke doelgroep en met welke urgentie. Met een duidelijke Context schets je de relevante scène.
Door de Context vooraan te plaatsen (zoals in ECHO), profiteer je van positional primacy: vroege tokens hebben disproportioneel veel invloed op hoe alle volgende tokens geïnterpreteerd worden. Je activeert daardoor dus domein-specifieke patronen voordat Instructions, Guidelines of Guardrails worden gelezen.
Het verschil tussen “schrijf een reactie” in een bankcrisiscommunicatie versus een voor een productlancering zit niet in de Instruction, want die is identiek. Het verschil is contextueel en zit dus in de Context.
Een goed Context-component verandert dus niet alleen wat de AI schrijft, maar ook hoe de AI “redeneert” binnen de taak die je het geeft.
Ik ben het maar hoor, niet stressen.
I’ve spent over 25 years working in content strategy and digital transformation, which means I’ve seen enough technology hype cycles to be skeptical and enough genuine innovation to stay curious.
Want to talk shop? Do get in touch!



