Het wordt steeds makkelijker om deepfakes of een stemkloon te maken. Handig, voor bijvoorbeeld toepassingen in games en films, maar kunstmatige intelligentie (AI) wordt ook vaker gebruikt voor het verspreiden van bijvoorbeeld nepporno of nepnieuws. Zo kun je tegenwoordig met uitkleed-apps in een handomdraai iemand online uitkleden. En in de aanloop naar de Tweede Kamerverkiezingen maakten zelfs Kamerleden zich schuldig aan het verspreiden van deepfakes: twee PVV’ers deelden op Facebook AI-beelden waarop te zien was hoe GroenLinks-PvdA-leider Frans Timmermans in handboeien door agenten werd afgevoerd.
98 procent van alle deepfakes op het internet is volgens het expertisecentrum Offlimits pornografisch, de slachtoffers zijn in 99 procent van de gevallen vrouw. Bij het expertisecentrum zijn er in de eerste maanden van dit jaar al bijna evenveel meldingen binnengekomen als in heel 2024. Dit kan volgens Nikki Lee Janssen van Offlimits ook leiden tot een toename van sextortion: het afpersen van iemand met naaktfoto’s. ‘Dit is nog maar het topje van de ijsberg,’ zegt Lee Janssen, die zelf slachtoffer is geweest van afpersing nadat een hacker een pikante video van haar, die ze voor haar vriend had gemaakt en in haar Dropbox stond, buitmaakte. ‘Veel mensen durven uit schaamte überhaupt geen melding te doen.’
Wraakporno
Die schaamte herkent Sylvana IJsselmuiden (30) maar al te goed. Zij ontving vorig jaar tot haar schrik een bericht via Instagram van een onbekende volger, die haar liet weten dat er pornografisch materiaal online stond waarin ze zichzelf vingerde, terwijl ze het niet was. De tv-presentatrice deed aangifte, maar twijfelde daarna of ze haar verhaal ook met de media moest delen.
Toch besloot ze dit wel te doen. ‘Ik werd vervolgens uitgemaakt voor ‘aandachtshoer’ en ‘pijpslet’. Sommigen twijfelden zelfs of de video wel nep was. Je voelt je al zo rot, dan zijn dit soort reacties heel vervelend. Dat is ook precies de reden waarom ik uiteindelijk wel besloot om erover te praten. We moeten stoppen met victim blaming. Slachtoffers kunnen er niks aan doen.’
/https%3A%2F%2Fcdn.pijper.io%2F2025%2F11%2F7ZkOlnTwU8D1QI1764243223.jpg)
In Denemarken is de maat vol, sinds de premier slachtoffer werd van een deepfake. De overheid wil een wetsvoorstel dat burgers auteursrecht geeft op hun stem, gezicht en lichaam. Ook in Amerika ligt er een nieuwe wet op tafel. Onder de noemer ‘Take it down act’ wil de regering het verspreiden van ongewenste AI-gegenereerde deepfakes en wraakporno bestrijden. Daarnaast verplicht de wet socialemediaplatformen en websites om de beelden binnen 48 uur na de eerste melding van het slachtoffer te verwijderen.
Het maken van een deepfake of voicecloning gebeurt met AI-software, dat op basis van heel veel data patronen leert kennen en vervolgens nieuwe beelden of klanken kan genereren. Deze software is volgens cyberexpert Dave Maasland inmiddels voor bijna iedereen toegankelijk via betaalde, maar ook gratis apps. ‘De betaalde versies zijn vaak geavanceerder,’ zegt Maasland. Eén profielfoto kan tegenwoordig al voldoende zijn om een realistische video te kunnen maken waarin iemand dingen zegt of dingen doet die nooit zijn gezegd of gebeurd.
Presentatrice Sylvana IJsselmuiden deed aangifte en deelde haar verhaal met de media. ‘Ik werd vervolgens uitgemaakt voor aandachtshoer en pijpslet’
Om ervoor te zorgen dat AI niet wordt ingezet voor bijvoorbeeld manipulatie of discriminatie, heeft de Europese Unie de AI Act in het leven geroepen, een wet die een wereldwijde norm moet stellen voor de regulering van AI. Makers moeten bijvoorbeeld duidelijk maken wanneer beeld-, audio- of videomateriaal kunstmatig is gegenereerd, bijvoorbeeld met een watermerk. Dit helpt gebruikers en toezichthouders om deepfakes sneller te herkennen en in te grijpen. De wet wordt in fases uitgerold en moet uiterlijk 2027 geheel van kracht zijn.
In 2024 is bovendien de Digital Services Act (DSA) van start gegaan. Deze Europese wet moet grote onlineplatformen en zoekmachines dwingen tot transparantie, betere bescherming van gebruikers en een verantwoord gebruik van de technologie. Maasland: ‘Ontwikkelaars moeten ook verantwoordelijk omgaan met het promoten van hun apps. Reclame voor bijvoorbeeld uitkleedsoftware is ethisch onacceptabel en moet keihard aangepakt worden. Bedrijven moeten zich afvragen: wat is het doel, wie zijn de klanten, en hoe controleren we misbruik?’ Offlimits zegt zich in ieder geval in te gaan zetten om uitkleed-apps een halt toe te roepen.
Smaad en laster
In Nederland is het strafbaar om zonder toestemming seksuele deepfakes te maken en te verspreiden. Dat geldt ook voor smaad en laster. Slachtoffers kunnen zich volgens volgens Diego Guerrero Obando, advocaat intellectueel eigendomsrecht, beroepen op het portretrecht, wat onderdeel is van de Nederlandse Auteurswet, of op een onrechtmatige daad, of op de Europese privacywet Algemene Verordening Gegevensbescherming (AVG) en in sommige gevallen op het strafrecht, bijvoorbeeld bij seksuele deepfake.
Toch is onze bescherming tegen misbruik van deepfakes versnipperd, stelt Guerrero Obando. Hierdoor weten slachtoffers vaak niet welke juridische route ze moeten bewandelen. Ook is het als slachtoffer ingewikkeld opboksen tegen een onbekend persoon of een groot techplatform. Daarnaast wordt er ook niet altijd even strak gehandhaafd.
De Tweede Kamer buigt zich daarom over het Deense wetsvoorstel om via het auteursrecht copyright op eigen lichaam, gezichtskenmerken en stem te krijgen. Dit moet een ‘duidelijkere wettelijke grondslag’ bieden om tegen schadelijke deepfakes te kunnen optreden. Ook zouden grote techbedrijven volgens Kamerleden strenger aangepakt moeten kunnen worden, wanneer ze te weinig doen om verspreiding van deepfakes op hun platform tegen te gaan.
/https%3A%2F%2Fcdn.pijper.io%2F2025%2F11%2FBIHhgDS5w1NcIg1764243376.jpg)
Regulering van AI-technologieën blijkt echter complex, zegt Maasland, mede door de invloed van de wereldpolitiek en internationale machtsverhoudingen. ‘Toen X meer regels kreeg, leidde dat zelfs tot dreigementen van Trump richting de EU, omdat het impact heeft op de Amerikaanse tech-industrie. En doordat bedrijven in een AI-wedloop zitten, willen ze vaak niet dat regelgeving hun tempo afremt.’
Er klinken meer kritische geluiden op het Kamerinitiatief, omdat satire en de vrijheid van meningsuiting onder druk zouden komen te staan. ‘Het is lastig om ethische grenzen te stellen voor AI-content, aangezien privacy, toestemming, kunstvrijheid en politieke communicatie vaak botsen en technologie snel verandert,’ zegt Guerrero Obando.
De advocaat pleit dan ook voor een consentmodel. ‘Het maken of gebruiken van een deepfake mag hierbij alleen met uitdrukkelijke toestemming, tenzij er een publiek belang meespeelt, zoals journalistiek, wetenschappelijk onderzoek, satire of parodie. Dan moet de kunstmatigheid van de content duidelijk worden vermeld. Er moet een wettelijk kader komen dat zowel de persoonlijke integriteit beschermt als fundamentele rechten respecteert.’
Maasland benadrukt dat ook goede voorlichting over deepfakes en voicecloning belangrijk is in de strijd tegen misbruik. ‘Leer mensen – en vooral kinderen – wat het zijn en wanneer het strafbaar is. Ondertussen moeten bestaande wetten strikt worden gehandhaafd, zoals bij haat, intimidatie of afpersing. Daarnaast moet er worden opgeschaald met slimme rapportages, menselijke moderatie en snelle meldingen.’
Online aanwezigheid
Je kunt een aantal voorzorgsmaatregelen treffen om jezelf te beschermen tegen ongewenste deepfakes en voicecloning. ‘Begin bijvoorbeeld met het beperken van je online aanwezigheid, door zorgvuldig om te gaan met het delen van persoonlijke foto’s en video’s op sociale media. Hoe minder beeldmateriaal er van je beschikbaar is, hoe moeilijker het wordt om gemanipuleerde beelden of deepfakes te creëren,’ zegt Willem van Lynden van de stichting Stop Online Shaming. ‘Het biedt alleen geen garantie, aangezien er door steeds krachtigere AI-tools minder beeldmateriaal van je nodig is om een deepfake te maken.’
Het kan, mede daarom, ook nuttig zijn om je accounts privé te maken, je privacy-instellingen regelmatig te controleren en je lijst met volgers af en toe door te nemen. ‘Ook kun je met behulp van verschillende onlinetools jezelf laten verwijderen uit databases. Zo voorkom je voor een groot deel dat spammers of oplichters aan je e-mailadres of telefoonnummer komen,’ vervolgt Van Lynden.
Om de kans te verkleinen opgelicht te worden via een stemkloon, adviseert Van Lynden om mondeling een codewoord af te spreken met familieleden. ‘Dit codewoord gebruik je wanneer een familielid bijvoorbeeld opeens om geld vraagt in een voicememo, video of appje. Zo kan je steeds controleren of het verzoek wel écht van hem of haar afkomstig is.’
Wees daarnaast kritisch op de apps en websites die je gebruikt. Download bijvoorbeeld alleen apps van betrouwbare bronnen, zoals de Google Play Store of de Apple App Store, en controleer altijd welke machtigingen een app vraagt. Vermijd apps die toegang willen tot je camera, microfoon of fotogalerij zonder dat daar een duidelijke reden voor is. Het up-to-date houden van je software is ook essentieel. Updates zorgen vaak voor belangrijke beveiligingspatches. Verder is het verstandig om sterke, unieke wachtwoorden te gebruiken en waar mogelijk tweestapsverificatie in te schakelen.
Kort geding
Wanneer je slachtoffer bent geworden van een deepfake of voicecloning zonder jouw toestemming, is het volgens Guerrero Obando belangrijk om direct te handelen. Je kunt aangifte doen bij de politie en een melding maken bij de fraudehelpdesk en bij toezichthouders, zoals de Autoriteit Persoonsgegevens. Leg bewijs vast door middel van screenshots, schermopnames en het noteren van URL’s en tijdstempels. ‘Dergelijke content wordt vaak op sociale media verspreid, waardoor het heel snel kan gaan.’ Hulplijn Helpwanted helpt bij het offline halen van seksueel getint materiaal.
Jort Kelder won een zaak tegen Google, dat volgens de rechter te weinig deed om nepadvertenties van bitcoinfraudeurs, met het gezicht van Kelder, te verwijderen.
Je kunt ook een klacht indienen via het notice-and-action-systeem van een onlineplatform. Dat is een tool waarbij gebruikers illegale inhoud kunnen melden, platformaanbieders zijn op hun beurt verplicht om de content te verwijderen. Guerrero Obando: ‘Reageert het platform niet of niet naar wens, dan kun je een civiele procedure starten in de vorm van een kort geding. Je kunt daarbij eisen dat de deepfakes worden verwijderd, dat het platform de identificerende gegevens van de maker of uploader van de deepfake verstrekt en dat schadevergoeding wordt betaald.’
/https%3A%2F%2Fcdn.pijper.io%2F2025%2F11%2FbsssoI4eIg0jXt1764243458.jpg)
Zo won Jort Kelder een zaak tegen Google, dat volgens de rechter te weinig deed om online-nepadvertenties van bitcoinfraudeurs, waarop het gezicht van Kelder stond, te verwijderen. ‘Het allerbelangrijkste is om de schaamte te doorbreken als slachtoffer,’ besluit Maasland.
Echt of nep?
De AI-ontwikkelingen volgen elkaar in rap tempo op, waardoor het steeds lastiger wordt om bijvoorbeeld deepfakes te onderscheiden van echt. Toch zijn er volgens deepfake-expert en onderzoeker Theo Gevers van de Universiteit Amsterdam verschillende aspecten waar je op kunt letten bij het herkennen van deepfakes.
Belichting
Vaak komt de lichtinval in deepfakes niet overeen met de werkelijkheid. Als het licht bijvoorbeeld van één kant komt, kunnen de schaduwen vreemd of inconsistent lijken. Deepfake-algoritmes hebben vaak moeite om dit volledig natuurgetrouw weer te geven.
Gezichtsuitdrukkingen
Bewerkte video’s kun je herkennen via micro-expressies of gezichtsuitdrukkingen die emoties weerspiegelen. Soms bewegen gezichtsplooien of rimpels niet mee wanneer iemand lacht of fronst, wat kan wijzen op manipulatie.
Sieraden.
Let daarnaast op accessoires, zoals sieraden. Het kan voorkomen dat iemand aan één oor wel een oorbel draagt en aan het andere niet, wat een teken kan zijn dat de video bewerkt is.
Contouren
Ook de randen van het gezicht kunnen iets verraden. Bij een zogenoemde ‘face-swap’ kunnen de contouren niet goed aansluiten, waardoor er verschillen in huidskleur of belichting zichtbaar worden. Dit valt vooral op bij deepfakes van lagere kwaliteit.
Afwijkingen
Andere signalen zijn onnatuurlijke oogbewegingen of haar dat er vreemd uitziet, bijvoorbeeld met rare patronen bij de haarscheiding. Ook een afwijkende verhouding tussen hoofd en lichaam, zoals een te groot hoofd, kan duiden op een bewerkte video.
Intonatie
De combinatie van beeld en geluid kan misleidend zijn. Een deepfake kan er realistisch uitzien en klinken, maar stemmen bevatten vaak nog kleine imperfecties. Algoritmes hebben moeite met het natuurlijk overbrengen van emoties en intonatie. Wanneer iemand bijvoorbeeld over iets verdrietigs praat, zoals het verlies van een dierbare, hoor je dat normaal gesproken aan de stem. AI-stemmen kunnen dit vaak nog niet overtuigend nabootsen.
Synchroniciteit.
Een ander herkenningspunt is de synchroniciteit tussen beeld en geluid. Soms lopen de mondbewegingen en de uitgesproken woorden niet helemaal gelijk, wat kan wijzen op manipulatie.
Herkomst
Naast technische aanwijzingen is het ook belangrijk om kritisch te kijken naar de herkomst van een video. Beelden die afkomstig zijn van platforms zoals YouTube zijn minder betrouwbaar, omdat vaak onduidelijk is wie de afzender is of met welk apparaat er is gefilmd. Probeer altijd zo dicht mogelijk bij de oorspronkelijke bron te blijven en, indien mogelijk, de originele beelden rechtstreeks van de maker te verkrijgen.
- ANP, NL Beeld