Gefingeerde pornografie - Kunstmatige Intelligentie kan iedereen tot pornoacteur maken

Geschreven door Marthe Goudsmit op 13-07-2018

Afgelopen februari maakte de pornografie-website Pornhub bekend niet langer gefingeerde pornografie op hun site te tolereren.[1] Gefingeerde pornografie – ook wel deepfakes genoemd – wordt gemaakt met behulp van kunstmatige intelligentie. Het resultaat is dat het gezicht van de ene persoon op het lichaam van een ander wordt gemonteerd, waardoor de indruk wordt gewekt dat de persoon wiens gezicht is gebruikt zich in de houding van het afgebeelde lichaam bevindt. Op die manier kan het eruit zien alsof bijvoorbeeld een beroemdheid in een pornografische film speelt, zonder dat deze persoon dat ooit daadwerkelijk gedaan heeft. En dat wil Pornhub niet meer hebben.  

Deepfakes zijn een gloednieuw fenomeen, dat in december 2017 bekendheid verwierf.[2] Een gebruiker van het internetforum Reddit die zichzelf ook ‘deepfakes’ noemt, beschrijft hoe het proces in zijn werk gaat nadat hij de actrice Gal Gadot in een pornografische film geknutseld heeft: “[de forumgebruiker deepfakes gebruikt] software gebaseerd op verschillende open-sourcebibliotheken, zoals Keras en TensorFlow. Om de gezichten van celebs te maken gebruikt deepfakes Google Afbeeldingen, stockfoto's en YouTube-video's. En als hij dat gezicht heeft gemaakt, “traint” hij een deep-learningalgoritme daarmee. In dit specifieke geval heeft hij het algoritme getraind met verschillende pornofilms en he verschillende beelden van Gal Gadots gezicht. En na genoeg training was het algoritme in staat om Gadots gezicht realistisch in video's te plakken”.[3]  

Middels gebruik van kunstmatige intelligentie is het dus mogelijk om een zeer overtuigend beeld te produceren, waarbij de afgebeelde persoon geen enkel vermoeden hoeft te hebben over de manier waarop zijn foto’s misbruikt worden. In veel gevallen zal duidelijk zijn dat het gaat om gefingeerde pornografie: de software werkt vaak niet foutloos en bovendien lijken de makers enige trots te voelen voor hun productie, waardoor ze erbij vermelden dat het om gefingeerde pornografie gaat. Als echter niet wordt vermeldt dat het om gefingeerd beeldmateriaal gaat en het beeld bovendien overtuigend is, kan dit ernstige schade aan de reputatie van de (schijnbaar) afgebeelde persoon toebrengen. Net als de VoCo software van Adobe die ervoor zorgt dat men iemand iets kan laten uitspreken dat hij nooit gezegd heeft,[4] biedt gefingeerde pornografie grote ruimte voor misbruik.  

Gefingeerde pornografie is een vorm van pornografie waarbij consent ontbreekt, en valt daarom te vergelijken met wraakpornografie en onvrijwillige pornografie. De voornaamste overeenkomst tussen wraakpornografie en gefingeerde pornografie is dat slachtoffers in beide gevallen geen toestemming hebben gegeven noch de intentie hebben gehad om in pornografisch materiaal te verschijnen. Bij wraakpornografie is het echter zo dat slachtoffers wel toestemming hebben gegeven voor het maken van seksueel getint beeldmateriaal, terwijl dat bij gefingeerde pornografie niet aan de orde is: het slachtoffer hoeft niet eens af te weten van het feit dat hij in pornografisch materiaal lijkt voor te komen. Daarin is gefingeerde pornografie dan ook meer vergelijkbaar met onvrijwillige pornografie: ook bij onvrijwillige pornografie ontbreekt toestemming voor het maken van seksueel getint beeldmateriaal. Het voornaamste verschil tussen deze beide vormen van pornografie waarbij consent ontbreekt, is dat het bij onvrijwillige pornografie handelt om ‘legitiem’ beeldmateriaal: het beeldmateriaal is niet gekunsteld maar bijvoorbeeld door heimelijk filmen tot stand gekomen. Bij wraakpornografie heeft het slachtoffer erin toegestemd seksueel beeldmateriaal te maken (wat het slachtoffer bij victim-shaming vaak (onterecht)[5] verweten wordt: het slachtoffer had zich niet in compromitterende houding vast had moeten laten leggen, dan hadden de foto’s ook niet uit kunnen lekken) en bij onvrijwillige pornografie begaat de maker duidelijk grensoverschrijdend gedrag. Deze beide kenmerken zijn bij gefingeerde pornografie afwezig, waardoor de vraag wat en of er daadwerkelijk een probleem is bijzonder ingewikkeld maakt. Gefingeerde pornografie vormt echter een steeds groter risico door verbeterde en steeds eenvoudiger beschikbare software, waardoor aandacht voor dit fenomeen noodzakelijk is.  

Gefingeerde pornografie lijkt niet strafbaar te zijn: wanneer een maker bijvoorbeeld stockfoto’s gebruikt, toestemming heeft om het pornografisch materiaal te gebruiken en zich verder aan de algemene wetten omtrent de regulering van pornografie houdt (zoals in Nederland bijvoorbeeld art. 240b Sr dat stelt dat kinderpornografie strafbaar is, of art. 240 Sr, dat strafbaar stelt om afbeeldingen die aanstotelijk zijn voor de eerbaarheid aan iemand, anders dan op diens verzoek, toe te zenden) heeft de maker geen wet overtreden en is niet strafbaar. Een verdere moeilijkheid bij een potentiële strafbaarstelling van gefingeerde pornografie is dat het lichaam dat zich in compromitterende houding bevindt, niet het lichaam is van degene die de gevolgen merkt: doordat het hoofd van de een en het lichaam van de ander gebruikt wordt, is noodzakelijk om vast te stellen wat nu precies valt onder “naakt afbeelden”. Als men daar alleen van kan spreken als het zich daadwerkelijk handelt om het lichaam van het slachtoffer zijn strafmaatregelen onwaarschijnlijk in geval van gefingeerde pornografie. Als het voldoende is dat het zich lijkt te handelen om het naakte lichaam van het slachtoffer kan gefingeerde pornografie wel strafbaar gesteld worden, maar wordt men direct geconfronteerd met het volgende probleem: wat nu als het gaat om een zeer levensecht schilderij? Is dat dan ook een afbeelding die onder dezelfde strafbaarstelling zou vallen? En hoe levensecht is dan ‘levensecht genoeg’? Is gefingeerde pornografie wellicht een kunstvorm?

Vooralsnog lijkt onwaarschijnlijk dat op korte termijn een strafbaarstelling gerealiseerd zal worden die gefingeerde pornografie tot misdrijf verklaart. Dat neemt niet weg dat niet tegen gefingeerde pornografie gehandeld kan worden. De website Pornhub heeft verklaard geen gefingeerde pornografie te tolereren, hoewel berichtgeving suggereert dat gefingeerde pornografie vooralsnog via hun website beschikbaar blijft en dat het verbod niet nageleefd nog gehandhaafd wordt.[6]  

Twitter heeft aangegeven geen gefingeerde pornografie te accepteren, en ook internetforumsite Reddit lijkt tegen gefingeerde pornografie op te treden, zij het stilzwijgend. Gefingeerde pornografie die op het platform geplaatst wordt, wordt steevast binnen korte tijd weer verwijderd. Ook ander beeldmateriaal dat middels kunstmatige intelligentie gewijzigd is, wordt van het forum geweerd. Ook GIF-jes site Gfycat verwijdert gefingeerde pornografie.[7] Hoewel dat voor slachtoffers van gefingeerde pornografie bemoedigend is, zijn ze er niet volledig mee geholpen: niet alleen is gefingeerde pornografie niet strafbaar, Eric Goldman – professor aan Santa Clara University School of Law – suggereert dat het verwijderen van gefingeerde pornografie in de Verenigde staten zelfs in strijd zou kunnen zijn met het recht op vrijheid van meningsuiting zoals vastgelegd in het First Amendment.[8] Ook in Nederland moet voor dit onderwerp de grens van vrijheid van meningsuiting bevraagd worden. Wanneer echter geen sprake is van een privacyschending van slachtoffers lijkt onwaarschijnlijk dat het recht op vrijheid van meningsuiting beperkt zal worden.  

Dus: wat is een naaktfoto? Is dat een foto waarop iemand naakt lijkt? Dan kan zijn privacy geschonden worden in geval van gefingeerde pornografie. Is het een foto waarop iemand daadwerkelijk naakt is? Dan kan van een privacyschending in geval van gefingeerde pornografie geen sprake zijn. Genoeg om over na te denken.  

  1. Samantha Cole, ‘Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual’, Motherboard, 6 februari 2018. 
  2. Megan Farokhmanesh, ‘Hollywood wants to rid the web of celebrity deepfakes’ , The Verge, 19 april 2018. 
  3. Samantha Cole, ‘AI-Assisted Fake Porn Is Here and We’re All Fucked’, Motherboard, 12 december 2017. 
  4. ‘Adobe Voco 'Photoshop-for-voice' causes concern’, BBC, 7 november 2016. 
  5. Hanneke de Graaf en Ciel Wijsen (ed.), Monitor seksuele gezondheid in Nederland 2017, Rutgers, p. 2.
  6. Charlie Warzel, ‘Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them’, Buzzfeed, 19 april 2018.
  7. Lisanne Beijen, ‘Deepfakes: met AI gemaakte nep-porno met celebrities wordt verwijderd’, WANT, 31 januari 2018.
  8. Megan Farokhmanesh, ‘Is it legal to swap someone’s face into porn without consent?’, Buzzfeed, 30 januari 2018.

Terug naar nieuwsoverzicht