Human-in-the-loop is de term die wordt gebruikt om aan te geven dat een mens AI-output controleert en goedkeurt voordat het wordt gebruikt of gepubliceerd.
De term is wijdverbreid, maar klopt niet helemaal, want niet elke mens kan beoordelen of AI-output klopt. Daarvoor heb je iemand met vakkennis nodig. Dat is dus niet zomaar een human, maar een expert-in-the-loop dus.
Een jurist moet juridische teksten checken, een arts medische informatie, een contentspecialist merktaal. Het gaat niet om controle door zomaar iemand, maar door de juiste persoon met de juiste expertise.
Waarom dit belangrijk is
AI maakt fouten die er zeer overtuigend uitzien en kloppend lijken dus. Zonder iemand met vakkennis die kritisch meekijkt, glippen hallucinatiesEr is sprake van een hallucinatie wanneer een AI-model informatie verzint die plausibel klinkt maar die feitelijk onjuist is of volledig verzonnen. Dat gebeurt omdat LLM's zoals ChatGPT woordreeksen voorspellen... Meer, biasBias is de set aan vooroordelen in AI-output die het resultaat is van de data en de manier waarop een model is getraind. Omdat LLM's leren van bestaande teksten, waarin... Meer en fouten onopgemerkt door je controle heen.
In sectoren waar veel op het spel staat zoals de zorg, finance en bijv. juridisch werk, is een expert-check geen luxe maar een voorwaarde. Zomaar iemand laten controleren levert schijnveiligheid op, zonder dat de kwaliteit echt geborgd is.
Voorbeeld
Een AI schrijft een productbeschrijving met technische specificaties. Een collega uit marketing leest het door en vindt het prima klinken, want de toon klopt en de tekst is helder en klantgericht geschreven.
Maar die collega ziet niet dat twee specificaties onjuist zijn. Pas wanneer een productspecialist meekijkt, worden de fouten ontdekt. De human-in-the-loop was er, maar de expert-in-the-loop ontbrak.
Risico
Je denkt dat output gecontroleerd is omdat “iemand ernaar gekeken heeft”, maar die persoon had niet de juiste kennis om fouten te spotten. Dat leidt tot gepubliceerde content met feitelijke fouten, juridische risico’s of compliance-schendingen. Het verschil tussen een check en een expert-check is het verschil tussen veilig AI-gebruik en problemen.
Wat kun je doen?
- Bepaal per type content wie de expert is die moet controleren
- Maak expliciet dat niet iedereen AI-output mag goedkeuren, alleen mensen met de relevante vakkennis
- Train experts in wat ze moeten checken bij AI-output (niet alleen toon, maar ook feiten en logica)
- Documenteer wie welke output heeft goedgekeurd, zodat verantwoordelijkheden helder zijn
- Gebruik “expert-in-the-loop” als term in je organisatie om het onderscheid maximaal duidelijk te maken