Ze worden steeds populairder en lijken bovendien steeds echter: deepfakes. Dat zijn nepvideo’s waarin het lijkt alsof iemand, bijvoorbeeld een bekende politicus, iets doet of zegt, terwijl dat helemaal niet echt is gebeurd. Hoe gevaarlijk zijn deze filmpjes?

Een levensgroot probleem voor de samenleving, kopten verschillende media toen de technologie in 2017 een opmars maakte. Straks weet niemand meer zeker of een video van een politicus die harde uitspraken doet echt is of niet, zo was de vrees. Ook het Openbaar Ministerie liet in 2019 weten zich grote zorgen te maken over de filmpjes, die zouden kunnen leiden tot oplichting, afpersing en kinderporno.

Inmiddels zijn we een aantal jaar verder. De technologie is doorontwikkeld; de visuele kwaliteit is inmiddels zo goed, dat sommige filmpjes amper nog van echt zijn te onderscheiden. Ongegrond zijn deze zorgen niet, zegt Theo Gevers, hoogleraar computer vision aan de Universiteit van Amsterdam. “Deepfakes zijn desinformatie en van desinformatie kan misbruik worden gemaakt.”

‘Misbruik nog niet echt van grond gekomen’

Toch schatte hij de gevaren van de nepvideo’s twee jaar geleden een stuk hoger in dan nu. “Misbruik door deepfakes voor politieke beïnvloeding is nog niet echt van de grond gekomen, terwijl de technologie daar inmiddels goed genoeg voor is.”

Gevers had bijvoorbeeld gedacht dat er meer deepfakes gebruikt zouden worden in de aanloop naar de Tweede Kamerverkiezingen in Nederland. “Dat is niet het geval geweest. Ook bij de Amerikaanse presidentsverkiezingen is het nagenoeg niet voorgekomen.”

Volgens Gevers bieden de filmpjes momenteel vooral veel mogelijkheden voor het bedrijfsleven. Hij ziet de interesse in deepfaketechnologie bij bedrijven groeien. Een voorbeeld daarvan is de gepersonaliseerde commercial van chipsmerk Lay’s waarin voetballer Lionel Messi fans toe lijkt te spreken.

De visuele kwaliteit van deepfakes is inmiddels erg goed, maar volgens Gevers loopt de spraak nog een beetje achter. “Al wordt ook dat steeds beter. Een jaar geleden was spraak nog erg synthetisch en robotachtig, tegenwoordig klinkt het echter. De spraak van Messi is hier al erg goed, waardoor het geloofwaardig lijkt.”

Zelf een deepfake maken met een app

Onlangs waren deepfakes van de Canadese app Wombo nog populair. Gebruikers kunnen in de app een foto van een persoon uploaden. Die wordt vervolgens door het gebruik van artificiële intelligentie omgetoverd tot een video waarin de persoon een door de gebruiker gewenst liedje lijkt te zingen. Het resultaat: een zingende Kim Jong-un.

Apps zoals Wombo zijn niet schadelijk, stelt Gevers. “Wombo is grappig bedoeld. De app maakt gebruik van oudere technologie, waardoor je snel door hebt dat het nep is. Bovendien weten de meeste jongeren al wat deepfakes zijn, omdat ze affiniteit hebben met virtuele omgevingen. Dat is anders voor ouderen, die daar geen ervaring mee hebben.”

Gebruikt voor trauma- en rouwverwerking

Ook zitten er een heleboel positieve kanten aan deepfakes, vindt Gevers. Zo wordt de technologie steeds vaker toegepast voor therapeutische en trainingsdoeleinden, bijvoorbeeld bij rouwverwerking. Daarbij kan een nabestaande via een computerscherm een gesprek voeren met een virtuele versie van een overledene. Een therapeut stuurt dan de overledene aan.

Maar er zijn meer mogelijkheden. “Het wordt ook gebruikt als therapie voor traumaverwerking of voor het oefenen van een slechtnieuwsgesprek voor artsen. Ook kan het gebruikt worden in conflictsituaties, bijvoorbeeld tijdens een scheiding. Je kunt dan oefenen om met je partner te praten”, aldus Gevers.

Source