image

UvA en NFI onderzoeken crimineel gebruik van deepfakes en steganografie

zaterdag 22 mei 2021, 16:22 door Redactie, 25 reacties

Het Nederlands Forensisch Instituut (NFI) en de Universiteit van Amsterdam (UvA) gaan samen onderzoek doen naar het gebruik van deepfakes en steganografie door criminelen. Volgens het NFI maken criminelen steeds vaker gebruik van deepfakes. Om het crimineel gebruik van de technologie te onderzoeken hebben de UvA en het NFI een 'Letter of Intent' getekend.

Zeno Geradts van het NFI stelt dat deepfakes onder andere worden toegepast om volwassenen in kinderpornofilms onherkenbaar te maken, of om meningen te beïnvloeden met door de computer gecreëerde personen. "Het is bijna onmogelijk om echte en deepfake video’s met het blote oog van elkaar te onderscheiden", zo laat hij weten. De huidige computermodellen kunnen een deepfake in ongeveer acht op de tien video’s herkennen, merkt Geradts op. "Dat is nog altijd in twee op de tien video’s niet, terwijl je eigenlijk zou willen dat minstens 99,5 procent van de deepfakes eruit worden gehaald."

Marcel Worring van de UvA voegt toe dat er meer onderzoek nodig is om deepfake video’s te kunnen onderscheiden van echte video’s. "90 procent van alle investeringen in deepfakes gaat naar het verbeteren van de techniek. Slechts 10 procent van de investeringen gaat naar onderzoek om deepfakes te herkennen en dan wordt er slechts heel beperkt gekeken naar de forensische bewijswaarde. Dat is echt veel te weinig."

Naast het onderzoeken van deepfakes gaan het UvA en het NFI ook aan de slag met het crimineel gebruik van steganografie. Hierbij worden boodschappen in bijvoorbeeld foto’s en video’s verborgen. "Het zou handig zijn wanneer computers kunnen helpen die berichten te herkennen. Met AI kan je computers leren om dit soort verborgen berichten te herkennen, door ze te trainen op bepaalde afwijkingen", laat Geradts weten.

Bij een derde project zullen het NFI en de UvA zich richten op het verbeteren van de bewijsvoering bij spraakherkenning, door het combineren van de herkenning met bijvoorbeeld locatiegegevens op de mobiele telefoon. Verder gaan beide organisatie aan de slag met het ontwikkelen van tools om beter informatie op bijvoorbeeld telefoons te kunnen doorzoeken.

"De bedoeling is dat er een soort kruisbestuiving komt. Het NFI heeft veel forensische kennis uit de praktijk. Onderzoekers van de UvA hebben vaak kennis hebben van de nieuwste methodes, die kunnen worden toegepast op de praktijk", zegt Annemieke de Vries van het NFI. "Het NFI wil ook de meest nieuwe ontwikkelingen kunnen gebruiken in strafrechtelijke onderzoeken van politie en OM. Je hebt elkaars kennis en expertise nodig om de forensische vraag van nu en de toekomst te kunnen beantwoorden."

Reacties (25)
22-05-2021, 16:47 door Anoniem
Zeno Geradts van het NFI stelt dat deepfakes onder andere worden toegepast om volwassenen in kinderpornofilms
Later lees je dan weer dat ze er niet bij kunnen komen wegens de encryptie. Dus ergens wordt er gelogen.
22-05-2021, 17:19 door Anoniem
Ik verspreid al zeker 15 jaar afbeeldingen met daarin de tekst (gebruikmakend van steganografie)

"wie dit ontcijfert heeft moet een melding sturen naar het volgende emailadres...met de volgende code ...."

en dat in 5 talen.

Weet je hoeveel reacties ik binnen heb gehad op dat email adres speciaal voor dat doeleinde?

ZERO NADA NUL
22-05-2021, 17:54 door Anoniem
Door Anoniem: Ik verspreid al zeker 15 jaar afbeeldingen met daarin de tekst (gebruikmakend van steganografie)

"wie dit ontcijfert heeft moet een melding sturen naar het volgende emailadres...met de volgende code ...."

en dat in 5 talen.

Weet je hoeveel reacties ik binnen heb gehad op dat email adres speciaal voor dat doeleinde?

ZERO NADA NUL

Heb er ook mee gespeeld, maar als je niet weet waar je naar moet zoeken (een bepaalde marker, bijvoorbeeld) dan is het een beetje een naald in een hooiberg, hé.
22-05-2021, 18:59 door Anoniem
Deepfakes hebben niets met steganografie te maken. Behalve voor het NFI.
Steganografie was er al lang voordat je iets nuttigs met AI kon doen. En de detectie ervan ook.

Een eigenschap van encryptie is, dat de output random is (zonder de juiste sleutel). Je bent dus op zoek naar statistische afwijkingen in een plaatje of zoiets. Wat niet klopt met het plaatje zelf. Bijvoorbeeld dat het te groot is.

Door heel weinige geëncrypte data in een heel groot bestand te verbergen wordt het heel moeilijk die afwijkingen te vinden. Zo werkt de detectie van steganografie.

Steganografie heeft meer met watermerken te maken als met deepfakes. Hoewel je bij watermerken natuurlijk wel wilt dat het opvalt. De software om het watermerk te detecteren is immers openbaar meestal, anders kan er niet op het watermerk getest worden.

Aldus, een hoop onzin van het NFI, maar de UvA neemt natuurlijk graag hun geld aan. En ze zijn goed bij de UvA, ik heb daar een paar colleges gevolgd en was onder de indruk. Ze zijn goed in beeldinformatieverwerking.
23-05-2021, 00:37 door Anoniem
Waarom is het uberhaut uitgevonden?
mosterd na de maaltijd om dit dan te onderzoeken het is er al,maar waarom?
zodat je mensen tegen elkaar kunt uitspelen?

Jan
23-05-2021, 06:52 door Anoniem
Door Anoniem:
Zeno Geradts van het NFI stelt dat deepfakes onder andere worden toegepast om volwassenen in kinderpornofilms
Later lees je dan weer dat ze er niet bij kunnen komen wegens de encryptie. Dus ergens wordt er gelogen.
Kom je nou werkelijk zelf niet op het idee dat misschien de ene keer encryptie het probleem is en de andere keer deepfakes? Dat het allebei voorkomt wil niet zeggen dat het alleen maar tegelijk kan gebeuren.

Door Anoniem: Deepfakes hebben niets met steganografie te maken. Behalve voor het NFI.
Dat staat er ook helemaal niet. Er worden drie onderzoeksprojecten genoemd: naar deepfakes, naar steganografie en naar verbeteren van de bewijsvoering bij spraakherkenning. Dat NFI en UvA bij drie onderwerpen samenwerken wil niet zeggen dat ze het ene onderwerp voor het andere aanzien.
23-05-2021, 08:51 door Anoniem
Waarom zou je gebruik maken van steganografie ipv pgp?
23-05-2021, 09:17 door Anoniem
Door Anoniem:
Door Anoniem: Deepfakes hebben niets met steganografie te maken. Behalve voor het NFI.
Dat staat er ook helemaal niet. Er worden drie onderzoeksprojecten genoemd: naar deepfakes, naar steganografie en naar verbeteren van de bewijsvoering bij spraakherkenning. Dat NFI en UvA bij drie onderwerpen samenwerken wil niet zeggen dat ze het ene onderwerp voor het andere aanzien.

Ik heb misschien mijn studie niet afgemaakt, maar neural networks gebruiken om verschillende soorten steganografie te detecteren lijkt mij erg optimistisch.

Van deepfakes weet ik niets want dat was er nog niet toen ik studeerde.

Ik herinner me ook dat hetzelfde NFI neural networks gaat gebruiken om door de encrochat data te schiften https://www.security.nl/posting/702278/Politie+analyseerde+EncroChat-berichten+via+deeplearningmodel+NFI. Er zit bij het NFI een beleidsmaker die teveel CSI heeft gekeken op tv. Niet elke toepassing is geschikt om op te lossen met AI.

Anoniem 18:59
23-05-2021, 11:18 door Anoniem
Ach, de UVA. De snowflake universiteit waar alleen gehersenspoelde marxisten vandaan komen en doorgeslagen wereldvebeteraars. Waarschijnlijk is het onderzoek vanuit de linkse hoek opgezet om alle onwelvallige meningen op het internet te kunnen verwijderen of onmogelijk te maken onder het mom van deepfake of nepnieuws. En uiteraard worden we daarbij op het verkeerde been gezet onder het mom van kinderporno of terrorisme bestrijding want wie is daar niet tegen.
Iedereen mag alleen de mening van links uitdragen en moet gehoorzamen aan de linkse doctrine, afwijkende (rechtse) meningen zijn extreem rechts dus gevaarlijk dus moeten worden verboten.
Ik noem dat altijd de terreur van de minderheid en dat doet links al jaren heel slim. Aan de rechterkant blijft het helaas oorverdovend stil wanneer er allerlei fakenieuws door de linkse media wordt verspreid of dat er miljoenen aan belastinggeld verdwenen is waar geen verklaring voor kan worden gegeven.
Nee, dan kun je je beter richten om deepfakes op te sporen in het kader van kinderporno, dat zet wel zoden aan de dijk.
23-05-2021, 13:30 door Anoniem
Door Anoniem: Waarom zou je gebruik maken van steganografie ipv pgp?
In de casus zoals beschreven wordt door het NFI willen de ontvanger en zender geen expliciet contact met elkaar.

Of dit real-world scenario's zijn is een goede vraag.
23-05-2021, 13:39 door Anoniem
Door Anoniem: Waarom zou je gebruik maken van steganografie ipv pgp?

Het is heel normaal om op de telefoon bijvoorbeeld een selfie te maken en die naar je contacten op te sturen. Dat er ook nog een bericht in kan zitten zal haast niemand vermoeden.

PGP is berucht om hoe slecht het met je metadata omgaat. Zo heeft ieder PGP bericht bijvoorbeeld, leesbaar, het Key ID van de ontvanger op een voorspelbare plaats in de ascii armor.

Je had een versie van PGP die deze Key ID kon vervangen door nullen, maar daarmee val je eigenlijk alleen nog maar meer op.

Anoniem 18:59
23-05-2021, 16:00 door Anoniem
Door Anoniem: Waarom zou je gebruik maken van steganografie ipv pgp?

Als je niet wilt laten zien DAT je (eventueel encrypted) communiceert .

Het zichtbaar gebruiken van encryptie kan - op tijden,plaatsen, landen - een grote indicatie zien dat je "nadere aandacht" verdient .
En ook al is de encryptie technisch goed - de basis aanname bij encryptie is dat het eindpunt betrouwbaar is, en het geheel in een veilige omgeving gebruikt wordt.
Als je echt professioneel geobserveerd wordt gaat die aanname al heel snel rammelen - fysiek inbreken en een camera plaatsen is niet heel moeilijk .
23-05-2021, 16:08 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem: Deepfakes hebben niets met steganografie te maken. Behalve voor het NFI.
Dat staat er ook helemaal niet. Er worden drie onderzoeksprojecten genoemd: naar deepfakes, naar steganografie en naar verbeteren van de bewijsvoering bij spraakherkenning. Dat NFI en UvA bij drie onderwerpen samenwerken wil niet zeggen dat ze het ene onderwerp voor het andere aanzien.

Ik heb misschien mijn studie niet afgemaakt, maar neural networks gebruiken om verschillende soorten steganografie te detecteren lijkt mij erg optimistisch.

Ik zou het niet uitsluiten. Herkennen _dat_ er wellicht steganografie gebruikt is , is al nuttig.
En NN's zitten weer in een golf van optimisme - en , op een aantal vlakken - ook indrukwekkende resultaten.


Van deepfakes weet ik niets want dat was er nog niet toen ik studeerde.

Ik herinner me ook dat hetzelfde NFI neural networks gaat gebruiken om door de encrochat data te schiften https://www.security.nl/posting/702278/Politie+analyseerde+EncroChat-berichten+via+deeplearningmodel+NFI. Er zit bij het NFI een beleidsmaker die teveel CSI heeft gekeken op tv. Niet elke toepassing is geschikt om op te lossen met AI.

Anoniem 18:59

Het is een onderzoeksproject - die proberen dingen uit.

En andere realiteit is, dat je onderzoeksfunding makkelijker loskomt als je het schrijft in termen die op een bepaald moment hot zijn en deel van het een of andere speerpunt programma . Momenteel zijn dat (weer) "AI" en "deep learning" , en misschien ook "data mining" .
23-05-2021, 17:20 door Anoniem
"crimineel gebruik" van deepfakes.

Het ligt meer in de lijn der verwachting dat overheden hier gebruik van gaan maken, en zij hebben wel de resources om ervoor te zorgen dat het misbruik niet (tijdig) kan worden gedetecteerd.

Steganografie ligt inderdaad een stuk relevanter. Echter, privacy via versleuteling en zo nodig het verbergen van berichten is een grondrecht. Als het wordt ingezet voor criminele activiteiten dan valt het natuurlijk niet onder privacy maar dat hoeft niet automatisch en op grote schaal te worden gedetecteerd.
Op welke wijze denkt men deze technieken in te zetten en hoe wordt misbruik door een overheid afgedekt bij de ethische toetsing?
23-05-2021, 19:26 door Anoniem
Door Anoniem: "crimineel gebruik" van deepfakes.

Het ligt meer in de lijn der verwachting dat overheden hier gebruik van gaan maken, en zij hebben wel de resources om ervoor te zorgen dat het misbruik niet (tijdig) kan worden gedetecteerd.

Er is zeker een criminele markt voor - de WhatsApp fraude is nu beperkt tot mensen die alleen op basis van een tekst besluiten dat het hun familielid is die met een nieuw nummer acuut geld nodig heeft.

Met een voldoende bruikbare deepfake kunnen ook de ietwat oplettender mensen (die vragen om een gesprek of video) voor de bijl gaan.
23-05-2021, 19:42 door Anoniem
Aaah daar is de kinderporno joker weer.
24-05-2021, 09:01 door spatieman
Door Anoniem: Ik verspreid al zeker 15 jaar afbeeldingen met daarin de tekst (gebruikmakend van steganografie)

"wie dit ontcijfert heeft moet een melding sturen naar het volgende emailadres...met de volgende code ...."

en dat in 5 talen.

Weet je hoeveel reacties ik binnen heb gehad op dat email adres speciaal voor dat doeleinde?

ZERO NADA NUL

tja, de gemiddelde nederlander kent maar een taal, en jij wil het in 5 ???
24-05-2021, 11:47 door Anoniem
Door Anoniem:
Door Anoniem: Ik heb misschien mijn studie niet afgemaakt, maar neural networks gebruiken om verschillende soorten steganografie te detecteren lijkt mij erg optimistisch.

Ik zou het niet uitsluiten. Herkennen _dat_ er wellicht steganografie gebruikt is , is al nuttig.
En NN's zitten weer in een golf van optimisme - en , op een aantal vlakken - ook indrukwekkende resultaten.

Misschien hebben ze bij de UvA wel veel effectievere ideeën klaarliggen om steganografie te detecteren, en te ontcijferen. Maar hebben ze het geld niet om dit onderzoek uit te voeren.

Het is jammer als al het onderzoeksgeld dan opgaat aan supercomputers met neurale netwerken waarna het ook nog eens niet blijkt te werken en niemand er ooit nog onderzoek naar wilt doen.

De motivatie van het NFI en de UvA zijn gelijk. Zo effectief mogelijk crimineel gedrag tegen houden. Dat kan ook een andere techniek als deeplearning zijn. Je gaat ook geen AI toepassen om de stemmen van de tweede kamer verkiezingen bij elkaar op te tellen. Neural Networks (inclusief ons brein) zijn gewoon heel slecht in wiskundige sommen. En normale computers zijn daar juist weer extreem goed in.

Anoniem 18:59
24-05-2021, 11:58 door Anoniem
Door Anoniem: Aaah daar is de kinderporno joker weer.

Met behulp van PhotoDNA in de Microsoft cloud wordt een cryptografische hashfunctie als label toegepast om verdacht audiovisueel materiaal geautomatiseerd te onderzoeken en te markeren. Dat bespaart de forensisch onderzoekers van justitie en de recherche het moeilijke karwei van het zelf moeten inzien en bestuderen van de vele duizenden bestanden.

Aan het labelen van het illegale materiaal ligt echter nog steeds handmatig mensenwerk aan ten grondslag. Dat werk is tijdrovend en psychisch zwaar belastend voor de betrokken onderzoekers en politie medewerkers, die daardoor het risico lopen om door de vele schokkende, weerzinwekkende beelden getraumatiseerd en arbeidsongeschikt te geraken.

Toepassing van kunstmatige intelligentie voor beeld- en geluidsherkenning kan dat onderzoek mogelijk grotendeels automatiseren, tijd die dan beter gebruikt kan worden om de misdadigers sneller op te sporen. Daarom denk ik dat het trekken van de 'joker' in dit geval meer dan terecht is om de onderzoeksgelden voor het NFI binnen te slepen.


De bestudering van audiovisueel materiaal van ernstige delicten is niet zonder persoonlijk risico voor de kijker. Ook in de journalistiek en de advocatuur wordt sterk gewaarschuwd voor de mogelijke traumatische gevolgen, die het langduring en bij herhaling bestuderen van beelden van excessief geweld en seksuele mishandelingen tot gevolg kunen hebben:

Handling Traumatic Imagery: Developing a Standard Operating Procedure
by the Dart Center for Journalism & Trauma, Columbia Journalism School

https://dartcenter.org/resources/handling-traumatic-imagery-developing-standard-operating-procedure
24-05-2021, 14:22 door Anoniem
Door spatieman:
Door Anoniem: ...

"wie dit ontcijfert heeft moet een melding sturen naar het volgende emailadres...met de volgende code ...."

en dat in 5 talen.
...

tja, de gemiddelde nederlander kent maar een taal, en jij wil het in 5 ???

Hahahahaha !

(kwartje viel pas na een tweede keer lezen)
25-05-2021, 08:52 door Anoniem
Door Anoniem: Aan het labelen van het illegale materiaal ligt echter nog steeds handmatig mensenwerk aan ten grondslag. Dat werk is tijdrovend en psychisch zwaar belastend voor de betrokken onderzoekers en politie medewerkers, die daardoor het risico lopen om door de vele schokkende, weerzinwekkende beelden getraumatiseerd en arbeidsongeschikt te geraken.

Toepassing van kunstmatige intelligentie voor beeld- en geluidsherkenning kan dat onderzoek mogelijk grotendeels automatiseren, tijd die dan beter gebruikt kan worden om de misdadigers sneller op te sporen. Daarom denk ik dat het trekken van de 'joker' in dit geval meer dan terecht is om de onderzoeksgelden voor het NFI binnen te slepen.

Ik denk niet dat er onderuit te komen is om beelden door mensen te laten bekijken. Het is heel twijfelachtig om mensen te veroordelen op grond van bewijsmateriaal dat helemaal niet door mensen bekeken is. De AVG stelt uitdrukkelijk dat er recht is om niet te worden onderworpen aan besluiten die uitsluitend op geautomatiseerde verwerking gebaseerd zijn. Je hebt met andere woorden recht op beoordeling door een mens. Ik vermoed dat de zorgvuldigheidseisen aan bewijsvoering in strafrecht ook opleveren dat een verdachte er recht op heeft dat iemand heeft gekeken of automatische categorisering van beelden als bijvoorbeeld kinderporno wel de juiste uitkomst had.

Ik denk dat de inzet van AI-technieken vooral doelgerichter werken mogelijk maakt bij het doorspitten van grote hoeveelheden materiaal, en mogelijk dat er minder materiaal moet worden beoordeeld door mensen, als dat volstaat om een zaak tegen iemand te maken.
25-05-2021, 09:18 door Anoniem
Even een idee, maar is het niet beter om te focussen op het aanpakken van dit probleem voordat het materiaal gemaakt is?
25-05-2021, 10:06 door Anoniem
Door Anoniem: Ik verspreid al zeker 15 jaar afbeeldingen met daarin de tekst (gebruikmakend van steganografie)

"wie dit ontcijfert heeft moet een melding sturen naar het volgende emailadres...met de volgende code ...."

en dat in 5 talen.

Weet je hoeveel reacties ik binnen heb gehad op dat email adres speciaal voor dat doeleinde?

ZERO NADA NUL

Nou als ze die AI getraind hebben zal je wel wat spam binnenkrijgen :'D
25-05-2021, 10:44 door Anoniem
Door Anoniem:
Zeno Geradts van het NFI stelt dat deepfakes onder andere worden toegepast om volwassenen in kinderpornofilms
Later lees je dan weer dat ze er niet bij kunnen komen wegens de encryptie. Dus ergens wordt er gelogen.

Het een hoeft het ander niet uit te sluiten. Niet iedereen gebruikt encryptie. Bovendien is het met alle software zo dat Rob Lee's Malware Paradox opgaat: "It can hide, but it must run".

In geval van KP bijvoorbeeld houdt dat in dat het de bedoeling van de makers is dat sommige mensen het in kunnen zien. Met die wetenschap kan je dus iets, want encryptie staat publicatie in de weg.

Maar het is sowieso al prettig om een organisatie eens hun hersens in de opsporing te zien gebruiken in de beste traditie van Sherlock Holmes, en zich niet vast te lopen in gezanik over "encryptie/wat anders! Het zou verboden moeten worden! Het is onmogelijk!" (lees het laatste als: "zij hebben er de competentie en motivatie niet voor").
28-05-2021, 12:39 door Anoniem
Door Anoniem: Even een idee, maar is het niet beter om te focussen op het aanpakken van dit probleem voordat het materiaal gemaakt is?

Dat denk ik van wel, maar de oplossing is niet eenvoudig. Liberalen houden niet zo van sociologische inzichten, maar in die richting moet men het wel zoeken als men dergelijke complexe problematiek beter wil kunnen aanpakken. Denk bij preventie aan de inzet van maatschappelijk werk bij consultatiebureaus, huisartsenpraktijken, buurthuizen, scholen, baanzekerheid en de wijkagent. De sociale zekerheid en de bekende haarvaten van de samenleving.

Men moet uitkijken om de aanpak louter in de techniek te willen zoeken, terwijl iedere goede huisarts, maatschappelijk werker of wijkagent je kan uitleggen dat het probleem van mishandeling en kindermisbruik in de hand wordt gewerkt door onzekerheid van werk en inkomen, verslavingen, gebroken gezinnen en een gebrek aan sociale cohesie. Een betere kinderbescherming begint daar, door die risicofactoren beter aan te pakken.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.