Een deepfake is een video, foto of geluidsopname waarin AI iemands gezicht, stem of lichaam nabootst op een manier die echt lijkt, maar dat dus niet is.
De technologie gebruikt AI-modellen die getraind zijn op enorm veel beeldmateriaal, waardoor gezichten verwiseeld kunnen worden, stemmen gekloond of zelf compleet nieuwe “opnames” gemaakt kunnen worden van mensen die dingen zeggen of doen die niet echt zijn gebeurd.
De term komt van “deep learning” (de AI-techniek) en “fake” (nep). Wat deepfakes gevaarlijk maakt, is dat ze steeds lastiger te onderscheiden zijn van echt. En omdat video en audio altijd als “bewijs” golden, ondermijnen deepfakes ons vermogen nog echt te weten wat dan “echt” is.
Waarom dit belangrijk is
Deepfakes tasten het vertrouwen in informatie aan. Als je niet meer kunt zien of een video, foto of audio echt is en je dus je oren en ogen niet meer kunt geloven, dan heeft dat impact op hoe we nu in de wereld onderscheid maken tussen echt en nep. Nu kon je met Photoshop of andere software natuurlijk al goeie fakes maken, maar het verschil is dat je daar steeds minder kennis en kunde voor nodig heb, steeds minder tijd en steeds minder kosten aan hebt.
Deepfakes worden ingezet voor desinformatie, politieke manipulatie, fraude en chantage. Maar ze hebben ook legitieme toepassingen: film, entertainment, onderwijs, toegankelijkheid (denk aan stemklonen voor mensen die hun stem niet kunnen gebruiken).
Het probleem is niet de technologie zelf, maar dat veel mensen niet weten dat deepfakes bestaan of hoe goed ze inmiddels zijn. Dat maakt mensen kwetsbaar voor manipulatie. En andersom werkt het ook: mensen kunnen nu beweren dat echte, compromitterende video’s “deepfakes” zijn. Dat is net zo gevaarlijk.
Voorbeeld
In 2022 ging er een video rond waarin Oekraïense president Zelensky zijn troepen opriep om de wapens neer te leggen. De video was een deepfake, gemaakt door Russische bronnen. De kwaliteit was niet perfect en de video werd snel ontmaskerd, maar het laat zien hoe deepfakes worden ingezet voor propaganda.
Op kleinere schaal gebruiken criminelen stemklonen om mensen te bellen, waarbij ze zich voordoen als familieleden in nood. Het doel: geld aftroggelen. Of deepfake-video’s die worden gebruikt om CEO’s te imiteren in phishing-aanvallen op bedrijven.
Risico
Deepfakes maken manipulatie schaalbaar en goedkoop. Wat vroeger specialistische kennis en dure software vergde, kan nu met gratis tools. Ze worden gebruikt voor:
- Politieke desinformatie en het ondermijnen van verkiezingen
- Reputatieschade door mensen dingen te laten “zeggen” die ze nooit hebben gezegd
- Financiële fraude en identiteitsdiefstal
- Intieme content zonder consent
- Het ondermijnen van video als bewijsmateriaal in bijv. rechtszaken
En misschien wel het gevaarlijkst: deepfakes creëren een “leugenaarsdividend”. Echte schandalen kunnen worden afgedaan als “dat is gewoon een deepfake”.
Wat kun je doen?
- Wees sceptisch bij video’s die te perfect zijn, emotioneel zwaar zijn, of claims maken die je graag wilt geloven
- Let op technische signalen: rare oogbewegingen, onnatuurlijke lipsync, inconsistente belichting
- Check de bron: komt de video van een betrouwbaar kanaal of duikt hij zomaar ergens op?
- Gebruik verificatie-tools en fact-checking sites als je twijfelt
- Deel geen video’s waarvan je niet zeker weet dat ze echt zijnVraag om meerdere bronnen en bevestiging voordat je iets als waar accepteert
