Over AI, mensen en de keuzes die we maken

Het ongemak begon subtiel. Onsamenhangend. Steeds vaker ving ik flarden van gesprekken op waarin mensen uiteenzetten hoe ze AI gebruikten om een recept te genereren. Of in een werksetting Ai werd ingezet voor functionaliteit die allang bestond.

Het ongemak groeide. Tijdens sessies bij congressen die steeds vaker over AI gingen. Waar het publiek, inclusief ikzelf, ernstig knikte als de spreker in kwestie waarschuwde voor bias en hallucinaties.

Het ongemak kroop steeds dieper. Wanneer de nieuwste ontwikkelingen rondom AI in wat voor setting dan ook werden aangekondigd, en woorden subtiel de visie verraadden: we hebben straks geen mensen meer nodig.

De vragen die bleven hangen

Bias, hallucinaties, energieverbruik, expertise, kennis, ervaring, de menselijke waarde.

We weten allemaal dat al die thema’s AI raken. Maar hoe herkennen we bias in AI, als het eruit ziet als de bias die we zelf hebben. En hoe weten we wanneer AI hallucineert, als hij het doet op een manier die eruit ziet als redelijkheid en waarheid. En hoe minimaliseren we onze ecologische voetafdruk, als we niet echt nadenken over waar AI wel en niet een goed systeem voor is. En hoe bewaken we dat de menselijke intelligentie, die een som is van kennis, ervaring, creativiteit en de specifieke toepassing ervan, niet weg wordt gemanaged. Met als resultaat middelmatigheid.

Van losse ideeën naar iets groters

Steeds vaker lag ik er wakker van. En begon ik te mijmeren over oplossingen. Eerst chaotisch. Welke afspraken zouden we moeten maken om een aantal van de issues te minimaliseren? Welke systemen zijn nodig om de afspraken te ondersteunen? Hoe verminderen we tegelijkertijd het eindeloze inzetten van AI, zonder kind met badwater door te trekken?

Op de bank zat ik erover na te denken, terwijl op de achtergrond aflevering na aflevering van mijn favoriete series onbekeken voorbij gingen.

Hier en daar bedacht ik deeloplossingen. Ik realiseerde me dat een goede prompt, ervoor zorgde dat ik minder correctierondes nodig had. Ik realiseerde me ook dat een goede prompt contextueel is en vraagt om begrip van de stappen op weg naar de beste output (en dus ook begrip van wat dat is “de beste output”).

Ik maakte een methode om prompts op hun kwaliteit te beoordelen, dacht na over de verschillende (content)gerelateerde stappen van mijn werkproces. Als ik een blog ging schrijven, wat deed ik dan eerst en daarna? En dan? Om te komen tot verschillende (of zo min mogelijk eigenlijk) prompts die aansluiten bij die stappen.

En toen realiseerde ik me dat al die losse onderdelen bij elkaar hoorden. Ik had inmiddels een modulaire promptmethode opgesteld, een inrichting van een slimme prompt library, kwaliteitschecks, rollen beschreven, het begon een beetje uit de hand te lopen.

De geboorte van ECHO

Het was een soort nieuwe entiteit geworden. Een bevalling. Dus gaf ik het een naam: ECHO.

Niet omdat ik nou direct een mooie afkorting had bedacht. Maar omdat ik per se wilde dat het ECHO zou heten.

Want een echo heeft altijd een origineel nodig heeft om van te weerkaatsen. Een oorsprong. Een begin. Een stem.

Pas later bedacht ik de woorden erbij: Ecosystem for Human/AI Controlled Output. Minder sexy, maar het zegt precies waar het over gaat. Het is een systeem en geen losse tool, geen richtlijn op zich. Het draait om controle, kwaliteit, en bewust gebruik. En het plaatst de mens centraal: human/AI output en niet andersom.

Tussen urgentie en structuur

ECHO doet twee dingen tegelijk. Aan de ene kant helpt het organisaties om hun AI-gebruik voor content te professionaliseren. Niet in losse experimenten. Niet in zozeer in prompts, maar in een structuur die uitlegbaar is, herhaalbaar en deelbaar. Zodat mensen niet hoeven te gokken wat goed is, maar het samen kunnen vastleggen.

Aan de andere kant is ECHO ook een manier om dingen kleiner te maken waar ik me zorgen over maak. Bias. Hallucinaties. Energieverspilling. De suggestie dat je mensen zomaar kunt vervangen. De afwezigheid van kwaliteitsnormen voor output die wél gepubliceerd wordt.

ECHO is geen oplossing voor al die problemen. Maar het is wél een manier om ze serieus te nemen. En om verantwoordelijkheid inherent aan het proces (van content maken met AI) te maken.

De principes achter ECHO

  1. AI heeft bias. Je hoeft niet eens diep in de techniek te duiken om te zien dat AI getraind is op bestaande ongelijkheid. Vaak heel subtiel, soms in your face. En dat weten we, maar hoe zien we de bias die we zelf meedragen? Niet. Je moet het bewust meenemen in je ontwerp, of het wordt groter.
  2. AI hallucineert. Dat is hilarisch soms, maar ook gewoon fout. AI kan dingen verzinnen die niet kloppen en dat gebeurt vaker dan je denkt. Zeker als niemand de output controleert. En op de punten die van belang zijn. Inhoudelijk, qua vorm, effectiviteit en meer. Dat moet in de processen goed worden vastgelegd.
  3. Kwaliteit is geen bijzaak. Veel AI-teksten zien er op het eerste gezicht prima uit. Lekker vloeiend, B1, netjes geformuleerd. Maar dat betekent niet dat het klopt, dat het overtuigt, dat het goed aansluit bij het doel van de tekst in kwestie. Taal is het eerste wat mensen zien. Dus wat je de wereld in stuurt, moet niet alleen snel, het moet ook goed.
  4. AI kost energie. Elke gegenereerde tekst, afbeelding of analyse draait op servers, stroom, infrastructuur. AI is niet gratis, en zeker niet duurzaam. Maar we doen te vaak alsof de kosten abstract zijn. Luister, zolang je prompt niet scherp is, draai je het systeem onnodig warm. Dat is niet efficiënt en het is ook niet verantwoord.
  5. Een prompt is een moment van macht: wat je vraagt en hoe, bepaalt wat je krijgt. Dat klinkt logisch, maar wordt nog zelden meegenomen in hoe we prompts schrijven. Terwijl dit het moment is waarop je richting geeft aan het systeem. Een vage prompt levert vage output, die je dwingt om nog meer output te vragen (verbeteringen). Een goede prompt is doordacht, getest, herbruikbaar en dat is precies wat ECHO faciliteert.
  6. AI vervangt mensen niet. Een AI-systeem kan iets herformuleren, structureren of versnellen. Maar het Weet niks. Het heeft geen ervaring, geen echt inzicht in de context, de bedoeling, de gevoeligheden. Daarvoor heb je nog altijd mensen nodig. Mensen die het proces kunnen sturen en de inhoud kunnen beoordelen.
  7. Taal is een strategische laag. Content is niet wat je nog ff doet aan het eind. Het is hoe je gezien wordt (je merk), hoe je uitlegt, overtuigt, reageert. Als AI daarbij een rol speelt, moet je weten wat je vraagt en wat je uitstuurt. Elke prompt is een beslissing over hoe je je verhoudt tot de buitenwereld.

Waarom ik dit schrijf

Ik heb ECHO inmiddels uitgewerkt. Het bestaat nu als structuur en als denksysteem. Niet perfect. Niet af. Maar helder genoeg om er echt mee te werken. Hoe het precies werkt en in elkaar steekt, vertel ik vast nog wel een keer.

Maar laat ik duidelijk zijn: ik heb dit niet bedacht omdat ik dacht: business baby. Ik heb dit gemaakt omdat ik hoop dat het een bijdrage kan leveren aan de manier waarop we AI gebruiken.

Omdat de manier waarop we AI gebruiken iets zegt over wie we zijn en over wat we belangrijk vinden. En omdat ik geloof (en gelukkig niet ik alleen) dat het nog niet te laat is om dat bewust te doen.

 

 

 

 

 

Share with your friends









Submit

Ik ben het maar hoor, niet stressen.

2 comments

Leave a Reply

Your email address will not be published. Required fields are marked *

Share with your friends









Submit