Leestijd: 5 minuten

De technologie verandert de wereld om ons heen razendsnel’ wordt er altijd gezegd. Aan één van de dingen waaraan we dat zien is de opkomst van deepfakes. Dat zijn nep afbeeldingen of video’s die gebruikt worden om bijvoorbeeld een nep-boodschap de wereld in te brengen. Deze huidige technologie is inmiddels in een dusdanig ver stadium dat echte beelden en nepbeelden bijna niet meer van elkaar te onderscheiden zijn. Dit is waar, naast het plezier, ook het gevaar van deepfakes langzaam duidelijk wordt. Is het tijd dat we hier een halt toe roepen?

Het verbeteren van de realiteit doen we al heel lang op verschillende manieren. Als we het analoog bekijken zou je make-up en plastische chirurgie hieronder kunnen schalen. Als we naar de digitale wereld kijken, dan zien we dat er veel bewerkingen plaatsvinden op foto’s en video’s. Soms gebeuren die bewerkingen al in het opname proces, bijvoorbeeld in de (video)camera. Sommige camera’s of lenzen van camera’s hebben ingebouwde kleurenfilters. Vaker gebeurt bewerking in de stappen daarna op een computer: het softwarematig bewerken van foto’s en video’s, de nabewerking.

Het gevaar van deepfakes - Spilwoord
Van Photoshop wordt je mooier.
Bron: Luli Kibudi

Zeker in de mode en reclamewereld wordt er volop gebruik gemaakt van computerprogramma’s om beelden aan te passen. Het meest bekende programma is Photoshop en van dat programma is de algemeen gebruikte term voor het bewerken van foto’s afgeleid. Beelden die gefotoshopt worden, worden bewerkt om bijvoorbeeld een achtergrond weg te halen of in het beeld erbij te zetten, licht invallen te veranderen, oneffenheden weg te werken en zelfs soms om een model bijvoorbeeld slanker te maken. Tegenwoordig zijn onze telefoons en camera-apps zelfs uitgerust met tal van filters die dit al automatisch doen na het schieten van een foto. Dit soort foto’s worden veelvuldig op social media zoals Facebook en Instagram gedeeld. Allemaal om dat ene perfecte plaatje van jezelf op internet te zetten.

Van fotoshop naar CGI

Daar waar het begon met het bewerken van foto’s in magazines en op reclameposters om een net wat betere foto te krijgen, is het tegenwoordig gemeengoed geworden. Bijna elke foto die je op het web of in (digitale)uitingen tegenkomt zijn bewerkt. De volgende stap werd om dit ook met video te doen. Al was daar vaak de insteek om iets in het videobeeld te zetten dat in de echte wereld moeilijk of niet kon. Een simpel voorbeeld zijn monsters of bijvoorbeeld vliegtuigen die verongelukken. Andere voorbeelden zijn bijvoorbeeld het gebruik van dieren in films. Een computer generated image (CGI) van een hond kan precies doen wat jij wilt dat hij op het witte doek moet doen. Met een echte hond kan dat lastiger zijn.

Inmiddels heeft bijna niemand meer door wanneer een foto bewerkt is. Er zijn zelfs tekenen dat dit het zelfvertrouwen van tieners aantast, doordat er in de media alleen maar een “perfect beeld” wordt neergezet. Bij films en CGI is het momenteel nog goed te zien wanneer iets computer geanimeerd is. Recent gaf dat wat commotie bij een hond in een film en riep dat de vraag op of er niet beter voor een echte hond gekozen had moeten worden. Het uncanny effect treedt nog regelmatig in werking. Daarbij is een gezicht nét niet echt genoeg waardoor het er ineens heel eng en nep uitziet.

Deepfakes

De volgende stap is om video’s direct te voorzien van al een bestaand of een door een computer gemaakt beeld. Als er gebruik wordt gemaakt van kunstmatige intelligentie of AI om een menselijk beeld te maken, dan spreken we van een deepfake. Het AI-programma is aangeleerd om een gezicht van persoon A over het gezicht van persoon B ’te plakken’ in een video. Hiermee kan persoon B zich voordoen als persoon A. Vaak wordt daar ook audio bij gebruikt die ook door AI wordt gegenereerd. Hiermee is ook de stem van persoon A na te maken.

Wat hier verontrustend aan is, is dat deze technieken steeds beter worden, maar met name ook veel toegankelijker. Waar bij CGI er miljoenen Euro’s voor nodig zijn om de apparatuur (krachtige computers en dure softwareprogramma’s) aan te schaffen, zijn er voor deepfakes zelfs al programma gratis beschikbaar. Hiermee kan iedereen dus al een deepfake maken. Het is op dit punt dat het gevaar van deepfakes duidelijk begint te worden.

Deepfake van Barack Obama. Kun jij het van echt onderscheiden? Bron: YouTube-kanaal BBC News

De techniek is al zo ver gevorderd dat het niet meer van het echt te onderscheiden is. De beelden kunnen in real time over een video geplaatst worden. De vraag is welke gevolgen de makkelijke toegankelijkheid en gevorderde techniek kunnen hebben. In een nieuwsbericht van Tweakers.net werd er gemeld dat Tweede Kamerleden mogelijk een videovergadering hadden met een deepfake. Als mensen een neppersoon in een video niet meer van echt kunnen onderscheiden, dan kan theoretisch iedereen zich als iemand anders voordoen. Met dit soort decepties kan er een poging worden gedaan om informatie bij belangrijke personen te onttrekken. Of dat ook in dit geval de opzet was is niet bekend.

Moeten we ons zorgen maken?

Als we ons steeds gemakkelijker kunnen voordoen als iemand anders, dan kan dat best wel voor problemen zorgen. Als de deepfake-techniek nog verder vordert en meer toegepast wordt, dan kunnen we er nooit zeker van zijn dat de persoon voor ons is de persoon is die we denken dat het is. Ook bij bijvoorbeeld videoboodschappen naar een groot publiek kan er gebruik worden gemaakt van deepfakes. Denk bijvoorbeeld aan het scenario dat een presidentskandidaat onbeschoft in beeld komt. Als dit een deepfake is die de politieke tegenstander de wereld in heeft geholpen, dan kan dat behoorlijke imagoschade opleveren. Zeker als het publiek niet weet dat het nepbeelden betreft. Of stel je eens voor dat een deepfake Putin de oorlog aan de VS verklaart en dit tot een echte oorlog leidt. Het artikel van Howtogeek.com beschrijft al voorbeelden waar het gevaar van deepfakes werkelijkheid werd.

Het gevaar van deepfakes zit hem erin dat we niet weten of het echt- of nepbeeld is wat we zien. Omdat dit een redelijk nieuw probleem is, moeten er manieren komen die ervoor zorgen dat we wel kunnen verifiëren dat iemand écht voor de camera staat. De Engelse website Business Insider meldt dat wetenschappers al een techniek hebben ontwikkeld waarmee een deepfake te ontdekken is. Dit zijn stappen in de goede richting. Daarnaast moeten we veel bewuster worden van het feit dat iets wat we zien niet echt kan zijn. Net zoals dat bijvoorbeeld met nepnieuws het geval is.

Persoonlijk denk ik dat alleen bewustzijn ons niet gaat helpen. De deepfake technologie verbetert elk jaar en zal uiteindelijk heel lastig voor ons mensen zijn. We zitten gelukkig nog niet op dat punt, de meeste deepfakes zijn nog te herkennen door het eerder genoemde uncanny effect. Voordat het wel te lastig wordt moeten er mijns inziens nieuwe wetgeving en technieken komen die ons beschermen tegen het gevaar van deepfakes. De wetgeving kan in de hand houden wat wel en niet mag met deepfakes. Daar waar we vinden dat er een grens wordt overschreden kunnen er straffen opgelegd worden. Misschien moet de wetgeving voor belangrijke functies en bedrijven zo zijn dat er geverifieerd kan worden dat de persoon aan de andere kant van de videocall echt is. Technieken moeten ons daarbij helpen en niet alleen de boosdoener zijn.