Onderzoekers van de Universiteit van Amsterdam (UvA) en het Nederlands Forensisch Instituut (NFI) slaan de handen ineen om onderzoek te doen naar de opsporing van deepfakes. Dat zijn realistische gemanipuleerde beelden, waarbij iemands gezicht op het lichaam van een ander wordt geplakt.
Deepfakes worden onder meer gebruikt om bijvoorbeeld iemand af te persen met gemanipuleerde beelden of om een volwassene in kinderporno onherkenbaar te maken. Met het blote oog kunnen echte en deepfake beelden haast niet worden onderscheiden, maar met computermodellen kunnen ongeveer acht op de tien video’s herkend worden.
Met de samenwerking willen de UvA en de NFI ook zorgen dat die andere twee op de tien beelden herkend kunnen worden. Hiervoor is meer onderzoek nodig. Marcel Worring, hoogleraar Multimedia Analytics aan de UvA, zegt dat momenteel 90 procent van investeringen in deepfakes gaan naar de verbeteringen van de techniek. “Slechts 10 procent van de investeringen gaat naar onderzoek om deepfakes te herkennen en dan wordt er slechts heel beperkt gekeken naar de forensische bewijswaarde. Dat is echt veel te weinig”, meent Worring.
Naast deepfakes willen de UvA en de NFI ook meer aandacht vestigen op steganography, waarbij boodschappen in foto’s en video’s worden verstopt. Criminelen gebruiken dit om bijvoorbeeld de locatie van drugs door te geven. Verder gaan de instanties ook werken aan projecten om bijvoorbeeld forensisch materiaal beter te kunnen verzamelen met spraakherkenning, het doorzoeken van telefoons en de sensoren in auto’s.













