AI klinkt soms als Einstein, maar gedraagt zich vaak als brugklasser

Je hebt er vast weleens eentje ontmoet. Zo’n puber van een jaar of 13 die briljante dingen zegt en verbanden legt waarvan je denkt: dayum, da’s nog eens een beautiful mind. Indrukwekkend.

Maar de vraag is zet je zo’n puber aan het hoofd van je afdeling communicatie? Of laat je die slimme puber zelfstandig klantvragen beantwoorden? Laat je de puber in kwestie beslissen over wie wel of geen toegang krijgt tot een dienst, of hoe je iets formuleert richting een kwetsbare doelgroep?

Ik neem aan, dat het antwoord een volmondig NEE is.

Omdat je weet:  ja, dit is een slimme puber, maar hij is nog niet stabiel. En jaaaa, hij denkt snel, maar snapt niet exact wat er op het spel staat. En okee hij is megacharmant, maar beweert regelmatig onzin.

En dat is precies hoe AI zich op dit moment in de tijd, regelmatig gedraagt.

Enthousiasme is goed, realisme is welkom

Elke keer dat ik in meetings en gesprekken zit, waar iemand roept: “oooehhh, misschien kunnen we dit oplossen met AI.” En er verrassend veel mensen mee-kwispelen, denk ik aan die briljante pubers. Ze zijn het absoluut waard om naar te luisteren en het is absoluut slim om ze af en toe in te zetten voor nieuwe inzichten. Maar zijn simpelweg nog niet volwassen, met alles wat daarbij komt kijken.

En natuurlijk snap ik het. Want AI kan best veel. Héél veel zelfs. Ik gebruik het dagelijks bij het structureren van content, het testen van tone of voice, het schrijven van kladversies. En bro, color me impressed. Ik ben soms bijna een beetje verliefd. Maar net als bij verliefdheid geldt ook hier, dat je wel helder moet blijven denken.

Want AI inzetten alsof het een volwassen, senior collega is? Dat is in het beste geval optimistisch en als je pech hebt naïef.

Het hulpje!

Waar het gaat om contentevaluatie, de optimalisatie van customer journeys of bijvoorbeeld gepersonaliseerde suggesties, is GenAI al best lekker bezig. Onderzoek van McKinsey stelt dat AI inmiddels prima inzetbaar is voor zaken zoals het samenvatten van klantinteracties, het bouwen van klantprofielen en het versnellen van data-analyses.

In een goed ingerichte workflow (uitroepteken!), met duidelijke kaders (nog een uitroepteken), is  AI een ongelofelijk waardevolle assistent. Maar wel een assistent dus. Het assisteert!

Maar structureel en autonoom? Alleen bij simpele taken.

Maar zodra je AI automatisch en autonoom wil laten draaien, betreed je een ander speelveld. En zeker in sectoren zoals zorg, finance, overheid of juridische dienstverlening.

Want in die sectoren, zijn fouten niet alleen gênant, ze zijn feitelijk schadelijk. Content die “waarschijnlijk wel klopt” is onacceptabel. Hallucineren over een verzekeringsproduct, een duur grapje. En bias is dan niet zomaar reputatieschade, maar een serieus compliance issue.

Zelfs simpele taken zoals het herschrijven van een tekst of het opstellen van een e-mail, worden riskant zodra de context gevoelig is. Onderzoek laat zien hoe subtiele AI-fouten in kritieke contexten direct leiden tot schade ook als de taak op papier eenvoudig lijkt.

Toezicht en governance zijn geen wondermiddelen

Uiteraard kun je toezicht inbouwen, kwaliteitskaders opstellen, governance inrichten.  Dat kan overigens niet alleen, dat moet je ook doen.

Maar laten we eerlijk zijn: toezicht is vaak beperkt tot de bekende high-risk organisatieplekken, governance leeft grotendeels enkel op papier en risico’s zitten in de details die niemand op tijd ziet, omdat het allemaal ook gewoon (relatief) nieuw is.

De WHO waarschuwde al dat bias, hallucinaties en desinformatie structurele risico’s vormen bij AI-inzet, zeker in sectoren waar veel op het spel staat, zoals de medische sector. Maar daarnaast is er natuurlijk ook het risico op reputatierisico’s van hallucinaties bij communicatie met klanten.  En AI-modellen kunnen net zo irrationeel en bevooroordeeld reageren als mensen…als pubers.

Plus, dan hebben we het nog niet eens gehad over de milieu-impact van GenAI enorme hoeveelheden energie en water, puur om die slimme zinnen te laten vloeien.

AI-missers: van dure demo’s tot rechtszaken

AI-missers zijn enerzijds hilarisch en anderzijds sad-potato: Google’s AI-demo die miljarden aan beurswaarde wegvaagde vanwege een fout in de output. Een advocaat in New York die verzonnen rechtszaken aanhaalde omdat hij AI blindelings vertrouwde. Maar ook de AI-gegenereerde Google Overviews, waarbij AI wel erg hard aan het verzinnen sloeg.

Bedrijven die AI inzetten en zich later moesten verantwoorden voor systematische uitsluiting van mensen met een migratieachtergrond.

Dat gebeurt niet omdat mensen dom zijn. Het gebeurt omdat we iets inzetten wat nog volop in ontwikkeling is en we onszelf wijsmaken dat het volwassen is. En hoewel toezicht en governance fijn zijn, loop je het risico dat de schade al is geleden, voordat je moet constateren dat je het niet goed had ingericht.

AI inzetten ≠ AI begrijpen

Hier zit het pijnpunt: wanneer je AI inzet zonder precies te weten wat het doet, waar de risico’s zitten, en wie de eindverantwoordelijkheid draagt, ben je niet aan het innoveren, maar een beetje aan het gokken.

Of zoals een enquête van McKinsey liet zien: 91% van de bedrijven vindt zichzelf onvoldoende voorbereid om GenAI verantwoord te gebruiken, maar dat lijkt niet echt iemand tegen te houden.

Ja, AI is oprecht een briljante puber. Maar voorlopig wel echt nog steeds een puber. Dus, geef het een plek. Zet het aan het werk. Laat het leren. Maar hou de sleutels van de auto nog even zelf in de hand.

Share with your friends









Submit

Ik ben het maar hoor, niet stressen.

Leave a Reply

Your email address will not be published. Required fields are marked *

Share with your friends









Submit