Bias is de set aan vooroordelen in AI-output die het resultaat is van de data en de manier waarop een model is getraind. Omdat LLM’s leren van bestaande teksten, waarin maatschappelijke ideeën, stereotypes en culturele aannames zijn verweven, nemen ze die patronen mee in het maken van hun output. Bias uit zich o.a. in woordkeuzes, aannames over doelgroepen en in wie wel en niet zichtbaar is en op welke manier, in gegenereerde content.
Waarom dit belangrijk is
Bias is vaak subtiel genoeg om onopgemerkt te blijven, maar wel groot genoeg om schade aan te richten. Het versterkt bestaande uitsluiting, benadeelt groepen en kan leiden tot discriminatie. Als je AI inzet zonder bias te adresseren, automatiseer je ongelijkheid. Het lastige aan bias, is dat het je niet opvalt dat er sprake is van bias, als de bias van de LLM overeenkomt met je eigen ideeën.
Voorbeeld
Een tool die CV’s beoordeelt, geeft structureel lagere scores aan vrouwelijke kandidaten omdat het getraind is op historische data waarin mannen vaker werden aangenomen.
Of een AI gebruikt strenger taalgebruik in reacties aan mensen met buitenlandse namen dan aan mensen met Nederlandse namen.
Of een campagnetekst gaat ervan uit dat “gezinnen” altijd bestaan uit een vader, een moeder en hun kinderen.
Risico
Je sluit onbedoeld groepen uit, versterkt stereotypes en creëert reputatieschade. In gereguleerde sectoren kan bias leiden tot juridische claims of boetes. Op maatschappelijk niveau draagt het bij aan structurele ongelijkheid, juist omdat AI-systemen zoveel invloed hebben op wie toegang krijgt tot diensten, informatie of kansen.
Wat kun je doen?
- Test output op verschillende doelgroepen voordat je het publiceert
- Laat mensen uit diverse groepen meelezen om blinde vlekken te spotten
- Monitor output structureel op bias-patronen
- Bij twijfel: laat mensen met verschillende achtergronden en perspectieven meedenken
