image

NFI en UvA ontwikkelen nieuwe methodes voor detectie van deepfakes

woensdag 16 november 2022, 10:09 door Redactie, 9 reacties

Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) hebben nieuwe methodes ontwikkeld voor de detectie van deepfakes. Voor de detectie van deepfakes wordt er nu binnen het NFI gebruikgemaakt van manuele vergelijkingen, zoals inconsistenties in scherpte. Zo zijn soms de tanden vaag en de lippen scherp. Of er wordt gekeken naar kenmerken als moedervlekken en of die altijd wel op dezelfde plek zitten.

De UvA en het NFI hebben nieuwe methodes ontwikkeld die bij de detectie van deepfakes moeten helpen. Eén van de nieuwe methodes is de ‘rolling shutter-methode’. Hierbij wordt gebruikgemaakt van de elektrische netwerkfrequentie om zo de tijd en plaats van de video te achterhalen.

“De elektriciteit uit een stopcontact bij mensen thuis heeft een frequentie van 50 hertz. Die is niet constant en varieert tussen ongeveer tussen de 49.5 en 50.5”, zegt Zeno Geradts, forensisch onderzoeker bij het NFI en bijzonder hoogleraar aan de UvA. "Dit is binnen heel Europa hetzelfde, de elektriciteitsnetwerken zijn namelijk op elkaar aangesloten. Het patroon daarvan genereert een soort tijdlijn: daarmee kunnen we bepalen wanneer een video is opgenomen."

Met Photo Response Non Uniformity (PRNU) is het mogelijk om te bepalen met welke camera de beelden zijn gemaakt. Bij het schijnen van een gelijke hoeveelheid licht op een camerasensor van een specifieke telefoon reageert elke individuele pixel net iets anders. Dat is te gebruik voor de detectie van deepfakes. De pixels geven namelijk een bepaald patroon. Dat patroon is vervolgens te vergelijken met het patroon van de deepfake. Zo is het mogelijk om te achterhalen van welk toestel de beelden afkomstig zijn. >/p>

"Als we weten van welke camera geclaimd wordt dat de beelden afkomstig zijn, kunnen we dat nu dus goed onderzoeken”, stelt Geradts. Voor het spraakdeel van deepfakes is ook een nieuwe methode ontwikkeld. Soms is het te horen dat een stem is nagemaakt, maar dat is nu ook zichtbaar te maken. Volgens het NFI zorgt de combinatie van klassieke methodes en kunstmatige intelligentie voor een goede detectie van deepfakes.

Begin dit jaar kwam het Wetenschappelijk Onderzoek- en Documentatiecentrum (WODC) van het ministerie van Justitie en Veiligheid met een onderzoek naar deepfakes. Daarin wordt ook de suggestie gedaan om 'het produceren, aanbieden, gebruiken en in bezit hebben van deepfake-technologie te verbieden voor de consumentenmarkt'. Minister Yesilgoz van Justitie en Veiligheid liet eerder deze week weten met belangstelling kennis te hebben genomen van de suggesties van het WODC. Het kabinet komt nog met een reactie op het onderzoek en zal ook op deze suggestie ingaan.

Reacties (9)
16-11-2022, 16:26 door Anoniem
Als elk unieke telefoon na assemblage per imei ook een registratie krijgt van het cameraprofiel, hebben we bijna een sluitend big brother systeem. Google en Apple profielen daaraan koppelen en voila.
16-11-2022, 17:33 door Anoniem
Als het cameraprofiel persoonsgebonden is is het een persoonsgegeven en is de AVG van toepassing. .
16-11-2022, 18:02 door Anoniem
Waarom is deze technologie deepfake bedacht en uitgevonden,
om er vervolgens achteraan te gaan terwijl er al slachtoffers zijn,
dus weer mosterd na de maaltijd,het kwaad is al geschied.

The Matrix
16-11-2022, 20:21 door Anoniem
Door Anoniem: Waarom is deze technologie deepfake bedacht en uitgevonden,
om er vervolgens achteraan te gaan terwijl er al slachtoffers zijn,
dus weer mosterd na de maaltijd,het kwaad is al geschied.

The Matrix

Is dat een beetje retorische vraag , of heb je werkelijk geen idee hoe uitvindingen gaan ?
Op een tech forum hoop ik soms op enig historisch besef .

Verzucht je bij het lezen over een steekpartij waarom ijzer & smeden uitgevonden zijn ?
Verzucht je bij een stapel pornoblaadjes waarom de boekdrukkunst uitgevonden is ?

Er is niemand die een researchproject van 30 jaar gestart heeft om "deepfakes" uit te gaan vinden.

Maar al zolang als er computers bestaan is het processen van "signalen" - beeld, audio, (en meer) een deel van het werk wat ermee gedaan wordt.

(of trouwens analoog - zoek de bekende Soviet foto waarop een ex-kameraad naast Stalin eruit getekend werd)
https://rarehistoricalphotos.com/stalin-photo-manipulation-1922-1953/

Beelden verbeteren, bewerken, knippen en plakken is al ontzettend lang een deel van computerwerk (Photoshop).
Hoofdzakelijk gedreven door de grafimedia (illustraties, uitgaven, reclame etc etc ) .
Verder zijn 'special effects' in films - en later (ook) in gaming - een driver voor allerlei beeldcreatie en bewerking .
Met toenemende processing power is dat steeds natuurlijker geworden - en afgedaald van waanzinnig dure Silicon Graphics servers en grote renderfarms naar 'de kleine man' met een nVidia kaart op een beetje dikke PC .

fake porn is echt niet nieuw - een ietwat bekend hoofd geplakt op een naakt lichaam was al 'hot' in de 8-bit tijd (en later nog wat mooier op een Amiga) .
Het was vooral 'shallow fake' , want de scheidslijn en kleuren vloeiend laten overgaan was een handmatige hondebaan waar de hobbyist zelden of nooit aan begon .

Met de huidige computers is het netjes scalen van images, en kleurpaletten blenden simpel en automatisch .

En -no shit - iemand verzint dat je met dat gereedschap ook porno (of andere genante situatues voor een celebrity) kunt maken - op huiskamer apparatuur nu .

Het was ooit high(er) tech : https://www.looper.com/674296/actors-who-were-brought-back-from-the-dead-with-cgi/

Oftewel - een stuk gereedschap ontstaat vrijwel vanzelf als de nodige technologie voldoende rijp is - en praktisch elk stuk gereedschap is veelzijdig toepasbaar.
De observatie dat ijzer voor zowel ploegscharen (1) als zwaarden bruikbaar is staat al in de Bijbel .
(1) note voor de jonge hipster : een ploegschaar is een agrarisch instrument om land te ploegen en het daarmee geschikt te maken om voedsel te verbouwen .
17-11-2022, 14:48 door Anoniem
Atlas uitzending over de gevaren en forenische opsporing van deepfakes

Te gast is prof dr. Zeno Geradts, beeldonderzoeker bij het Nederlands Forensisch instituut (NFI) en bijzonder hoogleraar forensische data-analyse aan de Universiteit van Amsterdam (UvA). De aanleiding is de recente WNL documentaire 'Welmoed en de sexfakes', van Welmoed Sijtsma. De presentatrice deed aangifte.

https://www.npostart.nl/atlas/16-11-2022/VPWON_1340581


De politie heeft een man aangehouden die ervan verdacht wordt een nepseksvideo te hebben gemaakt van WNL-presentator Welmoed Sijtsma. Het OM liet aan het AD weten dat de verdachte een 38-jarige Amersfoorter is.

https://nos.nl/artikel/2451805-man-opgepakt-voor-maken-neppornovideo-met-wnl-presentator-welmoed-sijtsma
17-11-2022, 15:48 door Anoniem
Door Anoniem: Als elk unieke telefoon na assemblage per imei ook een registratie krijgt van het cameraprofiel, hebben we bijna een sluitend big brother systeem. Google en Apple profielen daaraan koppelen en voila.

Ieder vastgelegd digitaal beeld is te herleiden tot de oorspronkelijke camera hardware waarmee dat is opgenomen:

https://en.wikipedia.org/wiki/Fixed-pattern_noise tracking

Lukáš, J., Fridrich, J., Goljan, M.: Digital camera identification from sensor pattern noise. IEEE Transactions on Information Forensics and Security 1(2) (2006) 205–21

https://ieeexplore.ieee.org/document/1634362/
18-11-2022, 11:19 door Anoniem
Wat nu als jouw hele realiteit in wezen op deepfake blijkt te berusten?
18-11-2022, 11:23 door Anoniem
Deepfake kan inderdaad een bedreiging gaan vormen voor de metaverse.
Dus ook de betrouwbaarheid van bitcoin blockchain kan in gevaar komen.

Daar richt zich waarschijnlijk de interesse op.
Re: http://www.gartner.com/en/documents/4008295
18-11-2022, 13:16 door Anoniem
Door Anoniem: Wat nu als jouw hele realiteit in wezen op deepfake blijkt te berusten?

dan ben je misschien best gelukkig - het werkt zo voor de hippe grachtengordelaars die graag wegkijken van de realiteit omdat ze zo lekker in hun bubbel zitten.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.