Sander Duivenstein EditieNL Sogeti deepfakes

Van stem- tot cameraherkenning: nieuwe technieken om deepfakes op te sporen

Sogetist Sander Duivestein vertelt erover in EditieNL

Met nieuwe methodes kunnen deepfakes steeds beter herkend worden, zegt het Nederlands Forensisch Instituut (NFI) in samenwerking met de Universiteit van Amsterdam (UvA). En dat is belangrijk, want de gemanipuleerde video's worden steeds realistischer en het misbruik neemt toe. "Maar het blijft een kat- en muisspel."

Watch Sogetist Sander Duivestein in EditieNL over deepfakes on YouTube.


Volodimir Zelenski die zich overgeeft aan de Russen of Mark Rutte die een toespraak houdt over de klimaatcrisis. Op het internet circuleren een hoop gemanipuleerde video's die bijna niet van echt te onderscheiden zijn. "De ontwikkelingen in de wereld van deepfakes gaan ontzettend snel", zegt Sander Duivestein, deskundige op het gebied van kunstmatige intelligentie. "En de verwachting is dat dat nog wel even zo zal doorgaan." 

Deepfake van minister-president Rutte:

Watch Beste Mark Rutte, zo klink je als je #klimaatleiderschap toont on YouTube.


Voorheen waren deepfakes alleen te maken door mensen met een ICT-achtergrond. "Inmiddels heb je niet eens meer programmeertaal nodig. Er zijn tools waar je foto's van een gezicht kan uploaden en een deepfake kan maken." Zo bestaat er een site waar je het gezicht van een bekend persoon op een porno-acteur kan plakken. "Een kind kan de was doen."

Detectie

Het NFI doet al enkele jaren onderzoek in samenwerking met de UvA. Inmiddels zijn er verschillende methodes om deepfakes te detecteren. Zo is er een checklist met audiovisuele kenmerken die met eigen oren of ogen gespot kunnen worden. Deskundigen kijken bijvoorbeeld naar verschillen in scherpte of verschuivende moedervlekken. Maar ook synthetische stemmen kunnen een deepfake aan het licht brengen.

Maar er zijn ook drie nieuwere methodes die gebruik maken van kunstmatige intelligentie. De eerste is de 'rolling shutter-methode', waarmee de tijd en plaats van de video achterhaald kunnen worden. Dit kon al met audio, maar nu dus ook met bewegende beelden.

Ook is er 'photo response non uniformity', een soort vingerafdruk van de camera van je telefoon. "Want elke indivuele camera heeft een eigen reactie op het licht, die terug te zien is in de pixels", legt Zeno Geradts van het NFI uit. Door die van een deepfake onder de loep te nemen, kan achterhaald worden met welk toestel de beelden zijn gemaakt.

De derde en nieuwste methode is de 'deep fake voice', waarbij het geluid van een video wordt gevisualiseerd. Aan het patroon daarvan kun je zien of er sprake is van manipulatie.

Uitdaging

Toch zal het een uitdaging blijven om de snelle ontwikkelingen bij te benen. "We zullen wel steeds opnieuw onderzoek moeten blijven doen en nieuwe methodes ontdekken om criminelen voor te blijven", aldus Geradts. "Het blijft een kat- en muisspel."

Bron: EditieNL