Deze app maakt nepporno met beroemdheden

Deze app maakt nepporno met beroemdheden
25 januari 2018 om 18:32
Laatste update: 26 april 2018 om 14:04

De FakeApp zet met behulp van kunstmatige intelligentie vrij realistisch de hoofden van bekende personen op die van pornosterren.

Een verontrustende ontwikkeling is gaande op Reddit. Onder de naam Deepfakes maken gebruikers van het platform het elkaar steeds makkelijk om bewegende beelden zo aan te passen dat er ineens een ander hoofd in een video verschijnt dan dat er origineel gefilmd werd.

Door een aantal video's aan te leveren met het hoofd van een bekendheid én deze te koppelen aan een pornovideo, kan de kunstmatige intelligentie achter deze app naadloos het hoofd van de bekendheid met dat van de porno-actrice verwisselen. In onderstaand voorbeeld zie je het hoofd van actrice Jessica Alba in een pornofragment:

<iframe allowfullscreen="" class="giphy-embed" frameBorder="0" height="264" width="480"></iframe>

Twee originelen zijn genoeg

Techsite Motherboard interviewde de ontwikkelaar DeepFakeApp. Hij maakte de FakeApp, een softwarepakket waarmee iemand met kennis van computeranimatie eenvoudig en snel een faceswap in video's maakt. Volgens hem is één of twee video's van een hoofd al genoeg om dit hoofd te verplaatsen in een andere video.

De voorbeelden op Reddit beslaan vrijwel allemaal neppe porno; van een strippende Katy Perry tot een hulpverlenende Scarlett Johansson. Een gebruiker zette de techniek in om het hoofd van Adolf Hitler op het lijf van de Argentijnse president Mauricio Macri te plakken.


Niet van echt te onderscheiden

De resultaten zijn nu al schokkend, maar verschillende experts laten aan Motherboard weten dat het niet lang meer duurt voordat deze nepvideo's helemaal niet meer van echt te onderscheiden zijn. Dat kan natuurlijk veel narigheid opleveren. 

Het verspreiden van de nep-pornovideo's is overigens wel illegaal, stelt hoogleraar Andrew Murray van de London School of Economics. "De beroemdheden kunnen de makers aanklagen wegens smaad, omdat hierdoor hun reputatie kan worden geschaad."  

<drupal-entity data-embed-button="afbeelding" data-entity-embed-display="entity_reference:media_thumbnail" data-entity-embed-display-settings="{&quot;image_style&quot;:&quot;liggend&quot;,&quot;image_link&quot;:&quot;&quot;}" data-entity-type="media" data-entity-uuid="71613153-a51d-4118-861b-610147e6ff5b"></drupal-entity>

De keerzijde: er is voortaan wel een 'easy-way-out' als er per ongeluk een naaktfilmpje van jezelf online verschijnt. Zeg dan dat jij het niet bent en geef de schuld aan kunstmatige intelligentie.

Lees ook:

Alarmnummer stelt diagnose met kunstmatige intelligentie

Pornhub herkent pornosterren met AI

Lees meer over:

Deel via