FYI.

This story is over 5 years old.

Tech

De AI die neppornofilms met beroemdheden maakt is te goed

Dat het nu mogelijk is om incestporno van 'Wonder Woman'-actrice Gal Gadot te maken, is verontrustend.
Beeld: Screenshot via SendVids

Op internet is een video te vinden van Gal Gadot die seks heeft met haar stiefbroer. Het is alleen niet Gadots eigen lichaam en eigenlijk ook niet echt haar eigen gezicht. Haar hoofd is gefaceswapt in een bestaand incestpornofilmpje.

De video is gemaakt met een een machine-learingalgortime dat gebruik maakt van materiaal dat makkelijk online te vinden is en open source code. Iedereen met een beetje kennis over deep learning en genoeg tijd had deze video in elkaar kunnen knutselen.

Advertentie

Een stuk van de video op SendVids.

De beelden gaan niemand voor de gek houden: het gezicht van Galdot beweegt niet altijd helemaal lekker mee met het lichaam en je krijgt de hele tijd het gevoel dat er iets niet helemaal in de haak is, maar als je snel kijkt is het geloofwaardig. Het is vooral indrukwekkend dat dit het werk is van een eenzame redditor genaamd 'deepfakes' en niet van van een of andere grote studio. De mensen die de jonge Princess Leia voor Rogue One hebben nagemaakt, zitten er dus niet achter. Het was gewoon deepfakes die in z'n eentje die dit kunstwerkje maakte.

Net als met het programma van Adobe dat mensen alles kan laten zeggen wat je wil en het Face2Face-algoritme dat in real time gezichten kan omwisselen, laat dit soort nieuwe porno zien dat we bijna in een wereld leven waar je mensen echt alles op realistische wijze in een video kunt laten doen – ook dingen die ze nooit hebben gedaan, zoals neuken.

Tot nu toe heeft deepfakes al hardcore pornovideo's gemaakt met de gezichten van Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza en Gal Gadot. We hebben geprobeerd het management van de actrices in deze nepvideo's te spreken, maar we hebben nog geen reactie gehad.

“Het is echt geen hogere wiskunde meer.”

Nepporno van beroemdheden is zo oud als Photoshop – als het niet ouder is – en er zijn enorm veel mensen fan van dit genre. En op reddit zijn ze idolaat van deepfakes.

Advertentie

Volgens deepfakes – die alleen anoniem wilde praten omdat hij niet publiekelijk aan de schandpaal genageld wil worden – is zijn software gebaseerd op verschillende open-sourcebibliotheken, zoals Keras en TensorFlow. Om de gezichten van celebs te maken gebruikt deepfakes, Google Afbeeldingen, stockfoto's en YouTube-video's. En als hij dat gezicht heeft gemaakt, "traint" hij een deep-learningalgoritme daarmee. In dit specifieke geval heeft hij het algoritme getraind met verschillende pornofilms en he verschillende beelden van Gal Gadots gezicht. En na genoeg training was het algoritme in staat om Gadots gezicht realistisch in video's te plakken.

AI-onderzoeker Alex Champandar vertelde per mail dat een flinke videokaart zo'n filmpje binnen een paar uur maakt. Met een gewone processor kan het ook, maar dan duurt het een paar dagen.

“Het is echt geen hogere wiskunde meer,” zei Champandard.

Het is beangstigend hoe makkelijk dit gaat. Naast wat technische kennis zijn er alleen maar genoeg foto's van iemands gezicht nodig. En de meesten van ons dragen dagelijks bij aan een steeds groter wordende database van onze fysieke eigenschappen: tussen 2015 en 2016 werden er 24 miljard selfies geüpload op Google Photos. Daarom is het ook niet onwaarschijnlijk dat binnen afzienbare tijd mensen afgeperst gaan worden met nepsextapes die met dit soort algoritmes zijn gemaakt.

Deepfakes vertelde dat hij geen professionele onderzoeker is, maar gewoon een programmeur die machine learning interessant vindt.

Advertentie

“Ik heb gewoon een slimme manier gevonden om een faceswap te maken met honderden afbeelding. Omdat ik het netwerk zo heb getraind kan ik er een foto van elke willekeurige persoon instoppen en die veranderen in het gezicht waarmee ik het algoritme heb getraind.”

Op reddit vertelde deepfakes dat het algoritme lijkt op het algoritme dat Nvidia heeft gebruikt om wintervideo's in zomerbeelden te veranderen.

De meeste video's van deepfakes zijn niet helemaal perfect. De video van Gadot zijn wel wat glitches te zien, maar als je een beetje door de kiertjes van je ogen kijkt, zijn de beelden niet van echt te onderscheiden.

Pornoster Grace Evangeline, wiens lichaam voor de video werd gebruikt, vertelde via Twitter dat ze gewend is dat haar filmpjes gestolen worden en op andere sites worden geplaatst, maar dat dit iets heel nieuws is.

“Het is belangrijk dat er altijd toestemming is,“ zei Evangeline. “Toestemming is in het privéleven belangrijk, maar ook als het om pornovideo's gaat. Met deze nepfilmpjes van beroemdheden neem je dat weg. En dat is verkeerd.”

Zelfs voor mensen die naakt voor de camera staan, is iemand over naar als er over hun persoonlijke grenzen heengaat. Ik liet de video aan ex-pornoster Alia Janine zien. ”Dit is echt verontrustend,” zei ze aan de telefoon “Dit laat zien dat sommige mannen vrouwen alleen maar als objecten zien waar ze mee kunnen doen wat ze willen… Dit laat echt een gebrek aan respect voor de actrice zien.”

Ik vroeg deepfakes wat hij van de etische implicaties van zijn technologie vond. Had hij nagedacht over wat de gevolgen voor wraakporno of afpersing zouden kunnen zijn?

“Elke techniek kan voor slechte doeleinden gebruikt worden,” zei hij. En hij vergeleek zijn uitvinding met de techniek die Paul Walker tot leven wekte in Furious 7. “Het verschil is dat deze techniek door bijna iedereen gebruikt kan worden. En ik denk niet dat het iets slechts is dat gewone mensen hiermee iets kunnen leren over machine learning.”

Volgens Champandard zijn gevolgen “gigantisch”. “We moeten een publieke discussie voeren over hoe makkelijk het is om nepfoto's en -video's te maken en dat ze over een aantal maanden waarschijnlijk niet meer van echt te onderscheiden zijn. Deze techniek was al een tijd beschikbaar, maar nu kan één iemand met een computer dit soort video's maken.”

Volgens Champandard moeten onderzoekers daarom weer technieken gaan ontwikkelen die nepvideo's herkennen. En hij vindt ook dat er beleid moet komen voor als mensen met dit soort nepvideo's worden afgeperst.