2020 is het doorbraakjaar van de deepfake: Je ex in een pornofilmpje stoppen (maar ook laaggeletterden helpen bij het lezen van een lap tekst)

Je ex in een pornofilmpje plakken of een politicus iets laten zeggen dat niet gezegd is. Trendwatcher Jarno Duursma verwacht dat deepfakes, door de computer gegenereerde nepvideo’s, de toekomst op z’n kop gaan zetten (en niet alleen negatief). Om dat te laten zien, maakte hij een deepfake van zichzelf.

‘Waanzinnig’ en ‘eng’ tegelijk , stelde Arjen Lubach recent nog in zijn tv-programma Zondag met Lubach over de revolutionaire technologie. En GroenLinks en het CDA pleitten in de Tweede Kamer voor het strafbaar maken van door de computer gemanipuleerde naaktfoto’s en -video’s. Welkom in de toekomst, welkom in de wereld van deepfakes.

Wie deze weken een video van Jarno Duursma op internet langs ziet komen, kan dan ook het beste twee keer kijken. Is hij het echt? Of is het de digitale deepfake-Jarno, die namens hem een tekst oplepelt?

Sinds kort beschikt de tech-expert over zijn eigen digitale kloon. Met behulp van deepfakesoftware van Synthesia maakte de Groninger een ‘avatar’ van zichzelf, een digitale kopie, die hij in een nepvideo kan laten zeggen wat hij maar wil. Zonder het zelf in te spreken.

Waarom Duursma zich liet namaken? Simpel, omdat de mogelijkheid er nu is en hij graag wilde testen hoe hij zichzelf kan digitaliseren. Al langer doet de 44-jarige onderzoek naar deepfaketechnologie. In het kort leert de computer hierbij zelf volledig nieuwe video’s, afbeeldingen, tekst of geluid genereren op basis van een grote bult aan bestaande media.

Op een laptop in zijn Groningse kantoor laat hij zien hoe makkelijk zijn deepfake te bewerken is. Hij schrijft een tekstje, drukt op een knop en een paar seconden later staat deepfake-Jarno te vertellen. De intonatie van de Nederlandse zinnen is nog niet altijd perfect, maar de gelijkenis met Duursma zelf - inclusief mimiek - is indrukwekkend.

Waanzinnig en eng

2020 is het doorbraakjaar van de deepfakes. Vooral voor afbeeldingen en video’s geldt dat echt bijna niet meer van nep te onderscheiden is.

De wetenschap werkt al veel langer aan de technologie, vertelt Gideon Maillette de Buy Wenniger. Aan het RUG-instituut voor kunstmatige intelligentie doet hij onderzoek naar deep learning. ,,In 1940 keek men al hoe computers het menselijk brein zouden kunnen nabootsen. Sinds 2006 spreken we van een nieuwe golf van deep learning. Zowel de algoritmes als de mogelijkheden voor computers om berekeningen te maken worden heel snel beter.’’

In de uitzending van Lubach lag de nadruk vooral op de ‘enge’ kant van de technologie. Deepfakes geven ruim baan aan oplichters die zich voor kunnen doen als iemand anders om geld af te troggelen, aan het creeren van nepporno waar iemands naam mee kan worden beschadigd, of zelfs het beïnvloeden van politiek door een gedeepfakete president gekke uitspraken te laten doen.

Daar worstelt Maillette de Buy Wenniger ook mee. Zelf promoveerde hij op het gebied van automatische vertaling, een veld wat door de overgang naar deep learning in de laatste paar jaar een revolutie doormaakte en reuzenstappen zette in de kwaliteit van gegenereerde vertalingen. ,,Afgezien van dat het wel een bedreiging vormt voor de baan van mensen in de vertaalindustrie, is het breed beschikbaar komen van hoog kwalitatieve, real-time automatische vertaling een ontwikkeling met veel positieve kanten. Het probleem is dat de onderliggende deep learning technologie veel algemener is en vrij toegepast kan worden. Dat brengt risico’s met zich mee.’’

Ongelimiteerde ideeënmachine

Duursma ziet het duistere toekomstbeeld eveneens en schreef er zelfs een rapport over. Maar hij kijkt ook graag naar het ‘waanzinnige’: ,,Als je alleen roept dat het slecht is, dan doe je het verhaal tekort. Ik zie een prachtige toekomst voor de versnelling van creativiteit in de wereld. Deze technologie brengt ons een ongelimiteerde ideeënmachine.’’

Zijn eigen deepfake is een voorbeeld van die creativiteit. Tijdens de coronaperiode vroeg hij zich af of dit een manier was om lezingen bij bedrijven te kunnen blijven verzorgen. Al snel oordeelde Duursma dat hij als fysieke spreker nog gewoon toekomst heeft: ,,De video werd na tien minuten best monotoon. En waarom is een spreker interessant? Omdat hij beweegt, enthousiasmeert en het publiek aanvoelt. Dat zal zo’n avatar nooit kunnen.’

Wel zou hij het kunnen gebruiken voor uitlegvideo’s ,,Kijk naar de videoconsumptie van de afgelopen jaren. Die neemt alleen maar toe. Mensen willen geen lange uitlegteksten lezen, maar een video kijken.’’

In In de toekomst zullen zulke deepfake-video’s in het bijzonder voor laaggeletterden een uitkomst bieden. Zij hoeven niet meer door een lange tekstlap te ploeteren, maar kunnen het op beeld verteld krijgen door een avatar. En als een uitlegtekst over bijvoorbeeld de geldende coronamaatregelen verandert, dan is de bijbehorende deepfakevideo met een druk op de knop aangepast. Bij een echte video zou alles opnieuw moeten worden opgenomen.

Hamburgers

En dan is dat nog maar een van de mogelijke toepassingen van de technologie. Er kan nog veel meer. ,,Zie het alsof je honderd schilders voor een canvas plaatst,’’ legt Duursma uit, ,,en vraag ze of ze een hamburger willen tekenen. Vervolgens krijg je honderd nieuwe vormen van hamburgers.’’

Zo werkt het ook bij deepfakes: ,,Een designer van koffiemokken kan het algoritme vragen op basis van bestaande plaatjes van mokken nieuwe mokken te genereren.Sommige zullen idioot zijn, bijvoorbeeld zonder bodem. Andere mokken misschien wel geniaal, waar mensen nog nooit aan hebben gedacht. Daar kan de designer mee aan de slag.’’

Sites als www.thispersondoesnotexist.com of www.thisrentaldoesnotexist.com werken precies op die manier. De computer genereert afbeeldingen, die voor ons menselijk brein te herkennen zijn als echte personen of gemeubileerde ruimtes. Zoiets kan ook dienen als inspiratiebron

,,Het ontwerpproces gaat door deze technologie een nieuwe fase in’’, denkt Duursma. Niet dat daarmee de designer zelf vervangen wordt: ,,Je moet het zien als een creatief assistent. Stel dat jij bij het schrijven van dit artikel vastloopt, dan zou deze technologie je op basis van wat je al hebt een volgende alinea kunnen schrijven. Misschien is het helemaal niks, maar zit er wel een kapstok in die je weer verder brengt.’’

De voorbeelden blijven komen: ,,Neem de mode-industrie. Straks is het mogelijk om je hoofd met je webcam binnen vijf seconden op een online Zalando-model te deepfaken, waardoor je meteen ziet of een outfit je staat. Of stel dat een zorgverzekaar een reclame spotje met een bekende Nederlander wil opnemen. Je laat iemand anders stoer door het beeld lopen en genereert daar later, met toestemming, het hoofd van die BN’er op.’’

Kiezen of delen?

Kunnen we niet die ‘positieve’ toepassingen behouden, en er tegelijk voor zorgen dat de kwaadaardige mogelijkheden van deepfakes niet benut worden?

,,Het is en en’’, weet Duursma. ,,We leven straks in een wereld van ‘post-reality’, waarin echt niet van nep te onderscheiden is.’’

Misschien doen we dat nu al wel. In Ghana leidde een filmpje van de president onlangs al tot een heuse coup. Nadat hij een tijd niet in het openbaar was verschenen, bracht de overheid een filmpje uit waarvan het volk vermoedde dat het om een deepfake ging. De president stond er vreemd op, de regering zou willen verbloemen dat hij dood was. Achteraf bleek dat de machtshebber een hersenbloeding had gehad en kampte met de gevolgen.

,,De grote vraag of we onze ogen en oren straks nog wel kunnen vertrouwen, gaat dus twee kanten op’’, stelt Duursma. Maar zelfs als we weten dat het materiaal gedeepfaket is, kan het schadelijke gevolgen hebben: ,,Als een neppornofilmpje van een meisje op de middelbare school wordt gemaakt, is dat toch smeuïg voor scholieren om door te sturen, zelfs als iedereen weet dat het nep is. Maar het is natuurlik wel erg schadelijk dat meisje.’’

Hoe maken we het onderscheid tussen ‘echt’ en ‘nep’?

Wetenschapper Maillette de Buy Wenniger ziet twee wegen om de technologie de baas te blijven. ,,Er zijn al organisaties die langs scholen gaan om scholieren te trainen in het kritisch omgaan met nieuws en social media, door ze bijvoorbeeld zelf nepnieuws te laten maken. Zo worden ze bewust van de technische mogelijkheden voor manipulatie en minder vatbaar voor nepnieuws . Het probleem is namelijk dat handmatige herkenning door mensen straks niet meer voldoende is. De race tegen de ontwikkeling van de technologie kan haast niet gewonnen worden, uiteindelijk is het verschil niet meer door een mens waar te nemen.’’

Een tweede optie is dan ook het inzetten van technologie. ,,Software die kan aangeven of het gaat om een nep afbeelding, bijvoorbeeld. Probleem is alleen dat doordat de fakes steeds beter worden, ook herkenning door software steeds moeilijker wordt.’’

,,Een alternatief is daarom een aanpak die zich meer richt op de bron van de video. Je zou een ‘hash’ aan een video- of afbeeldingsbestand kunnen toevoegen. Dat is een speciale code die vastlegt hoe het originele bestand eruit zag, en die meteen op internet gepubliceerd wordt.’’ In dat geval kan, bij twijfel, gecheckt worden of het bijvoorbeeld om een echte of gedeepfakete uitspraak van een politicus gaat.

Alle wereldtalen

Op zijn laptop laat Duursma nog een functie zien. Hij typt wat in, klikt door en plots klinkt er vloeiend Duits uit de mond van deepfake-Jarno. Zijn avatar spreekt alle grote wereldtalen. ,,Het hebben van je eigen deepfake-avatar kan een geweldige aanvulling zijn op je fysieke presentatie.’’

Wanneer we de technologie gaan teruggaan zien in de samenleving? ,,Binnen nu en twee jaar’’, voorspelt de trendwatcher resoluut. ,,Online, in de vorm van uitlegvideo’s; maar bijvoorbeeld ook als uitleg-hulp in ziekenhuizen of bij fastfoodketens.’’

,,Er zit veel goeds aan, maar ook zeker een duistere kant’’, concludeert Duursma. ,,De geest is uit de fles.’’

Je kunt deze onderwerpen volgen
Extra