Stel je voor: Er staat een pornovideo van jou online. Een video waarin jij de hoofdrolspeler bent, maar je hebt er nooit in gespeeld. Toch lijkt het angstaanjagend echt.
Dit is de verwoestende realiteit van deepfake pornografie, een vorm van digitaal misbruik die zich razendsnel verspreidt. Bekend of onbekend, het raakt vrouwen wereldwijd. Hoe en waarom maken mensen deze video’s? En wat zijn de gevolgen hiervan voor slachtoffers?
Feminer sprak met dr. Sîan Brooke, assistent-professor en data wetenschappen aan de UvA, over deze ontwikkelingen: “Het plakken van gezichten op lichamen van pornosterren, stimuleert een obsessie met een onrealistisch lichaam en voedt de male gaze.”
Image Based Sexual Abuse & Deepfake Pornografie
Deepfake pornografie is een vorm van Image Based Sexual Abuse (IBSA). Deze engelse benaming voor seksueel misbruik op basis van beelden verwijst naar het zonder toestemming maken of delen van intieme beelden. Dit is inclusief het dreigen met het delen van beelden. Een nieuwe vorm van IBSA is de verspreiding van deepfake pornovideo’s. Het is dus een fenomeen waarbij een afbeelding digitaal is gemanipuleerd om de gelijkenis van een persoon te vervangen door die van een ander door middel van kunstmatige intelligentie.
Deepfake is een combinatie tussen ‘deep learning’ wat verwijst naar AI en machine learning, een verzameling van zelflerende algoritmes en ‘fake’, wat verwijst naar nep. Het is gebaseerd op een neuraal netwerk. De algoritmes zijn geïnspireerd op de manier hoe menselijke hersenen werken en zijn getraind met uren videomateriaal van een persoon.
Het netwerk leert hoe die persoon eruitziet vanuit verschillende hoeken en onder verschillende belichtingen. Makers plaatsen met grafische technieken de persoon van het ene beeld op het lichaam van een persoon in een andere video.
Hoewel film- en reclamemakers deepfake beelden gebruiken, is 98% van de deepfake video’s online pornografisch. In 2017 kwam voor het eerst een deepfake pornovideo online op het internetforum Reddit, waar gebruikers kunstmatig bewerkte beelden deelden die beroemdheden lieten zien in seksuele context. Zo was Taylor Swift in januari 2024 slachtoffer van een deepfake porno video. De beelden gingen o.a. rond op X.
99% van de deepfake pornovideo’s is gemaakt van een vrouw. Dit gebeurt zonder enige vorm van toestemming. In 2024 zijn wereldwijd 4000 bekende vrouwen slachtoffer van dit fenomeen en naar verwachting zullen er in 2025 8 miljoen deepfake pornovideo’s online staan. Een schrijnend gevolg van de toegankelijkheid tot het manipuleren van beeld.
99% van de deepfake pornovideo’s is gemaakt van een vrouw. Dit gebeurt zonder enige vorm van toestemming
Seksistische dubbelzinnigheid
Dr. Sian Brooke legt wat uit over de impact van deepfake pornovideo’s op vrouwen. In het gesprek benoemde zij het Madonna and the Whore effect: Een verwijzing naar een seksistische dubbelzinnigheid waarbij vrouwen in het patriarchale systeem zijn verdeeld in twee uitersten: De pure, onschuldige Madonna en de seksueel bevrijde als ‘slecht’ beschouwde Whore.
Het idee suggereert dat wanneer vrouwen geportretteerd zijn op een seksuele manier, dit hun waarde als persoon vermindert. Aldus Brooke: “Het gevaar van het maken en delen van deze beelden van vrouwen is dat het alle agency en controle wegneemt over hun eigen lichaam. Daarnaast schaadt het ook hun reputatie en identiteit.”
Wie is Dr. Siân Brooke?
Dr. Siân Brooke is assistent-professor en data-onderzoeker aan de Universiteit van Amsterdam. Ze is gespecialiseerd in het verkennen van de complexe dynamiek van gender en intersectionele gelijkheid binnen technologische interacties. Siân pleit voor inclusief ontwerp en beleid in technologie.
Nep maar net echt
Volgens Nina Jankovich, een bekende Amerikaanse beleidsmaker op het gebied van verspreiding van desinformatie op sociale media, doet deepfakepornografie afbreuk aan het imago van vrouwen. Mannen portretteren vrouwen in succesvolle politieke functies op een seksuele manier om hun carrière bewust te schaden. Een carrière die deze vrouwen zorgvuldig hebben opgebouwd. Later is zij zelf slachtoffer geworden van deepfake pornovideo’s en schreef hierover een sterk stuk in de Atlantic.
Margriet Sitskoorn, hoogleraar klinische neuropsychologie, geeft aan dat wij als mensen geprogrammeerd zijn om te geloven dat beelden echt zijn. Ons geheugen slaat daarom beelden op als de echte, realistische beelden, ook al weten we van tevoren dat de beelden nep zijn. Dit is vooral het geval wanneer de video’s realistisch lijken. Om iets realistisch te maken, verwerken zelflerende algoritmes gigantische hoeveelheden beeldmateriaal. Van bekende vrouwen is er vaak veel materiaal te verkrijgen en daardoor lijken deep fakes vaak erg realistisch.
Schadelijke gevolgen
Psychologen geven aan dat de schade groot is onder slachtoffers. De psychische gevolgen van offline of online misbruik, lijken vaak vergelijkbaar. Zo voelen de vrouwen zich zelfs vies en hebben zij de neiging te gaan douchen, alsof er fysiek seksueel misbruik heeft plaatsgevonden. Eline Vedder, CDA politica en slachtoffer, vertelde in De Trouw: “Het maakt eigenlijk niet echt uit of iemand digitaal iets met je uitspookt, of in de echte wereld iets met je uitvreet. In mijn hoofd geeft het dezelfde reactie.” Vrouwen ervaren angst om nieuwe (professionele) relaties aan te gaan en zich niet meer in sociale situaties te willen bevinden Sommige vrouwen houden er zelfs PTSS aan over.
Brooke voegt hier aan toe dat het ook schadelijk is voor hoe we als maatschappij naar vrouwen kijken: “We worden als vrouwen vaak geconfronteerd met onze vrouwelijkheid en hierin seksistisch benaderd. Het plakken van gezichten op lichamen van pornosterren, stimuleert een obsessie met een onrealistisch lichaam en voedt de male gaze.”
Sommige vrouwen houden er zelfs PTSS aan over
Waarom maken mensen deze video’s?
Uit onderzoek blijkt dat het vaak jonge mannen zijn die deepfake pornovideo’s maken en verspreiden. Bij het verspreiden van privé-intieme beelden gaat het vaak om partners of bekenden van het slachtoffer. Deepfake pornovideo’s maken het vaak lastig om de daders te achterhalen, vooral omdat bekende vrouwen regelmatig het slachtoffer zijn. Het element van nepheid maakt het mogelijk om ieders gezicht op het lichaam van een pornoster te plakken. Iedereen kan deze beelden maken en verspreiden. Via websites of fora doen mannen vaak aanvragen voor deepfakevideo’s van bekende vrouwen, maar ook van onbekende vrouwen. Soms tegen betaling.
Ongewenste verspreiding of het maken van seksueel beeldmateriaal zonder toestemming van de afgebeelde persoon, heet ook wel “wraakpornografie” in Nederland. Maar dit vinden experts geen goede term. Het insinueert dat het altijd gaat om wraak, alsof dit de enige beweegredenen is voor het maken en verspreiden van beelden. De voornaamste motivaties en redenen, naast wraak, zijn namelijk: seksueel genot, macht en intimidatie, maar ook sextortion, afpersing van mensen door middel van beelden
Daarnaast geeft de term veel meer aandacht aan de dader dan aan het slachtoffer. Ook insinueert het woord ‘porno’ dat het gemaakt is voor publiek en voor consumeren, zoals bij pornografie. Dit is vaak niet het geval. Beelden zouden privé blijven en niet bedoeld zijn voor anderen om te zien.
Ook het bekijken en doorsturen is een groot probleem. Een Amerikaans onderzoek met 1500 mannen wijst uit dat 48 procent weleens een deepfake pornovideo heeft gezien en 74 procent zich hier niet schuldig over voelt. Dit zijn zorgelijke cijfers.
Deepfake in Nederland
In Nederland adviseerden experts slachtoffers van deepfake pornografie tot 2023 vaak om aangifte te doen van smaad of laster. Het was niet duidelijk of deepfake pornovideo’s ook onder artikel 139h van het Wetboek van Strafrecht viel, dat seksueel misbruik met beeldmateriaal strafbaar stelt. In november 2023 bracht de rechtbank Amsterdam hier verandering in. Zij oordeelde dat deepfake pornografie, wanneer deze voor een weldenkend persoon niet van echt te onderscheiden is, wél onder seksueel misbruik valt. Hierdoor kunnen slachtoffers van deepfake-pornografie nu aangifte doen op basis van dit artikel, wat hen beschermt tegen de schadelijke effecten van deze vervalste beelden.
Volgens onderzoeker Marthe Goudsmit, is het positief dat de Nederlandse wetgeving ervan uit gaat dat degene die de beelden verspreid heeft, weet wat de schade is voor een slachtoffer. Dit uitgangspunt zorgt voor een betere bescherming, al blijft het aan de rechter om te bepalen of de beelden van seksuele aard zijn.
Met de komst van nieuwe Wet seksuele misdrijven is artikel 139h inmiddels vervallen en is misbruik van seksueel beeldmateriaal ondergebracht in artikel 254a. Deze wet stelt dat seksueel geweld en grensoverschrijdend gedrag offline én online even strafwaardig zijn. Deepfake pornografie wordt nu erkend als een seksueel misdrijf in plaats van een privacy-inbreuk, zoals voorheen het geval was. Dit geeft slachtoffers meer erkenning en meer en sneller toegang tot hulpverlening. Het maken, verspreiden en bezitten van dergelijke beelden kan nu worden bestraft met een gevangenisstraf van maximaal twee jaar.
In maart 2024 zijn tientallen filmpjes van BN’ers en kamerleden offline gehaald, nadat AD onthulde dat tussen de 70 en 80 vrouwen slachtoffer waren. 15 hiervan hebben uiteindelijk aangifte gedaan. Er loopt op dit moment nog onderzoek naar de daders.
Hoe is de wetgeving en de regulatie van platforms?
In Europa startte in december 2023 de AI Act, met als doel dat mensen AI-technologieën veilig, ethisch en in lijn met de grondrechten kunnen gebruiken. De AI act stelt harde eisen aan transparantie, zoals het toevoegen van een watermerk.
Het ontbreekt alleen op dit moment aan technische middelen om deepfake porno video’s effectief te identificeren en te verwijderen. De Digital Services Act (DSA), die van kracht is sinds februari 2024, richt zich op de verantwoordelijkheid van grote online platforms en vereist dat zij transparanter zijn over hun algoritmes en risicobeheer. De controle blijft gebrekkig, en zorgt voor risico’s voor de privacy en reputatie van gebruikers.
De grote internetplatformen, zoals Meta en Google, hebben grote openbare datasets gecreëerd om onderzoek naar deepfake video’s te bevorderen. Deze platforms hebben ook beleid ingevoerd en technologie ontwikkeld om deepfakes te detecteren, labelen of te verwijderen. Reddit verbood deepfake-pornografie in 2018, gevolgd door Pornhub, Discord en X.
In de praktijk gaan er nog steeds veel deepfake beelden rond. Het misbruik is vaak ook ondergerapporteerd omdat slachtoffers vaak niet weten dat er deepfake beelden van hen rondgaan. Daarnaast heeft Meta recent besloten te stoppen met onafhankelijke factchecking. Dit zal het reguleren nog meer bemoeilijken.
Maatschappelijke verantwoording
Zowel experts als slachtoffers pleiten voor een maatschappelijk verantwoordelijkheidsgevoel. Gebrek aan verantwoordelijkheidsgevoel draagt ook bij aan de schade van het slachtoffer volgens Goudsmit. Ze legt uit dat wetten en platforms IBSA vaak niet honderd procent de verspreiding van deze beelden kunnen aanpakken.
Brooke benadrukt ook dat vrouwen veel meer onderdeel moeten zijn van het maakproces van AI en überhaupt in technische omgevingen. “Mannen voorzien bepaalde negatieve toepassingen van AI vaak niet, omdat zij de bijbehorende problemen zelf niet ervaren. Dit draagt bij aan het misbruik van AI voor schadelijke doeleinden.” Ze waarschuwt dat patriarchale, conservatieve en seksistische gendernormen zich in technologie coderen, wat toxic masculinity en traditionele genderrollen versterkt.
Door meer vrouwen en diverse perspectieven in technische omgevingen te brengen, kunnen we dit soort problemen eerder signaleren en aanpakken. Dit draagt bij aan meer ethische en inclusievere en veiligere technologieën en platforms, die minder vatbaar zijn voor misbruik.
Maar een culturele omschakeling en verandering van houding helpt deze slachtoffers ook. Het feit dat een groot deel van de mannen zich niet schuldig voelt over het bekijken van beelden, is zorgelijk. Daarom moet duidelijk zijn: Geen beelden aanvragen, geen beelden bekijken en geen beelden doorsturen.
Geen beelden aanvragen, geen beelden bekijken en geen beelden doorsturen
F.A.Q.
Wat is 'Toxic Masqulinity'?
Toxic masculinity verwijst naar een verzameling van beledigende, schadelijke overtuigingen, neigingen en gedragingen die geworteld zijn in traditionele mannelijke rollen. Dit gevaarlijke idee van “mannelijkheid” bevordert dominantie, homofobie en agressie en kan schadelijk zijn voor de (mentale) gezondheid van alle genders.
Wat is 'Male Gaze'?
De male gaze verwijst naar de manier waarop vrouwen in media, kunst en cultuur vaak worden afgebeeld vanuit een mannelijk, heteroseksueel perspectief. Dit perspectief reduceert vrouwen tot seksuele objecten, waarbij de nadruk ligt op hun uiterlijk, in plaats van hun persoonlijke agency of eigen verhaal.
Wat is 'Sextortion'?
Sextortion is een vorm van afpersing waarbij iemand bedreigd wordt met de verspreiding van intieme foto’s of video’s, tenzij ze voldoen aan bepaalde eisen, zoals geld betalen of seksuele handelingen verrichten.