image

"AVG staat controleren van afbeeldingen zoals Apple van plan is niet toe"

dinsdag 10 augustus 2021, 10:51 door Redactie, 30 reacties

De AVG staat het controleren van afbeeldingen zoals Apple in de Verenigde Staten van plan is niet toe. Dat zegt Peter Kager van adviesbureau ICTRecht tegenover BNR. Ook is het volgens Kager helemaal geen taak van Apple om afbeeldingen te scannen op kindermisbruik, aangezien dat een taak is van politie en andere opsporingsinstanties.

"In Europa zitten we met de AVG, zoals het er nu voor staat steekt die hier een stokje voor, om de eenvoudige redenen dat dit niet de taak van Apple is", aldus Kager. Het techbedrijf wil in de Verenigde Staten foto's die naar iCloud Photos worden geüpload controleren, alsmede afbeeldingen die minderjarige iMessage-gebruikers ontvangen en versturen. Apple mag de technologie dan niet van de AVG toepassen, het zou die wel in Europa kunnen inschakelen aangezien toezichthouders achteraf handhaven.

Kager stelt afsluitend dat een andere optie het opstellen van nieuwe wetgeving is. "Een private organisatie die helpt bij de handhaving, zoals Apple, zou kunnen, maar dan moet daar wel wetgeving voor komen. Iedereen is het erover eens dat hier iets tegen gedaan moet worden. De vraag is alleen of dat bij Apple gedaan moet worden." Daarnaast zijn critici bang dat de techniek ook voor andere doeleinden kan worden ingezet dan de bestrijding van kindermisbruik.

Reacties (30)
10-08-2021, 10:57 door Anoniem
In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...
10-08-2021, 11:04 door Anoniem
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...
In plaats van dit commentaar zou je ook zelf kunnen komen met opties om kinderporno te bestrijden...

Dat lijkt een flauwe opmerking, maar ICTRecht gaat natuurlijk niet over techniek, noch over het maken van wetten of beleid. Net zoals jij.
10-08-2021, 11:08 door Anoniem
In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...

Da's aan Apple, niet aan de AVG. Niets belet ze om met alternatieven te komen, welke wel aan de AVG voldoen.
10-08-2021, 11:10 door Anoniem
Ook is het volgens Kager helemaal geen taak van Apple om afbeeldingen te scannen op kindermisbruik, aangezien dat een taak is van politie en andere opsporingsinstanties.
Dat zei ik gisteren ook al en ik vraag mij af hoe dit in het Nederlands rechtssysteem gaat sneuvelen. Want iemand die naar strafbare feiten mag speuren, moet ook een officiële opsporingsfunctie van de overheid hebben ontvangen. En Apple voldoet hier absoluut niet aan.

Maar afgezien daarvan vrees ik, dat Apple is gezwicht voor de druk van de inlichtingen- en politiediensten in de VS die jarenlang en voortdurend naar een achterdeur in Apple-producten hebben gevraagd. En de reden voor die achterdeur was: de bestrijding van kinderporno en terrorisme.
10-08-2021, 11:27 door majortom - Bijgewerkt: 10-08-2021, 11:32
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...
Probleem is dat kinderporno enkel als argument wordt aangevoerd om dit te legitimeren. Als eenmal legitiem is dat er spyware standaard op een device van je komt, dan wordt dit langzamerhand steeds verder uitgebreid (function creep). Wie zegt mij dat er enkel naar foto's wordt gekeken (het is immers closed-source)? Worden ook al je andere gegevens besnuffeld? En welke devices volgen?

Ook slaat de techniek natuurlijk nergens op. Er wordt een hash gemaakt die wordt vergeleken met een database van hashes die op kinderporno zouden duiden. Ik verander dus 1 pixel en wordt niet gedetecteerd. Kun je net zolang herhalen tot uiteindelijk alle hashes als kinderporno worden gezien: een soort van DOS aanval, maar dan op de kinderporno hash database.
10-08-2021, 11:40 door Anoniem
Het voelt voor mij aan als een complete misinterpretatie van wat er in feite gebeurt, hier is wat Apple zelf zei:
Kunnen overheden Apple dwingen om niet-CSAM-afbeeldingen toe te voegen aan de hash-lijst?
Apple zal dergelijke eisen weigeren. De CSAM-detectiemogelijkheid van Apple is uitsluitend gebouwd om bekende CSAM-afbeeldingen te detecteren die zijn opgeslagen in iCloud-foto's en die zijn geïdentificeerd door experts van NCMEC en andere kinderveiligheidsgroepen. We zijn geconfronteerd met eisen om door de overheid gedateerde veranderingen te bouwen en in te zetten die de privacy van gebruikers eerder aan de kaak stellen, en hebben die eisen standvastig geweigerd. We zullen ze in de toekomst blijven weigeren. Laten we duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM die is opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een overheid om het uit te breiden. Bovendien voert Apple menselijke beoordeling uit voordat het een rapport maakt aan NCMEC. In het geval dat het systeem foto's markeert die niet overeenkomen met bekende CSAM-afbeeldingen, wordt het account niet uitgeschakeld en wordt er geen rapport ingediend bij NCMEC.
Het gaat dus om hashes, in eerste instantie niet om de afbeeldingen zelf.

Er wordt niets geleerd over niet-overeenkomende afbeeldingen. Zelfs als de door het apparaat gegenereerde innerlijke coderingssleutel voor het account wordt gereconstrueerd op basis van het bovenstaande proces, wordt de afbeeldingsinformatie in de veiligheidsvoucher voor niet-overeenkomsten nog steeds beschermd door de buitenste versleutelingslaag. Met een combinatie van Private Set Intersection en Threshold Secret Sharing kan Apple de relevante afbeeldingsinformatie dus pas leren als het account meer dan een drempel aantal CSAM-overeenkomsten heeft, en zelfs dan, alleen voor de overeenkomende afbeeldingen.

Daarnaast is het voor de politie lastig om door Apple's iCloud te zoeken, wat ofwel beveiligingsgaten ofwel toestemming van Apple zelf nodig heeft. Voor het oppakken van dergelijke personen zou Apple niet verantwoordelijk moeten worden inderdaad, maar het kan zo wel de politie helpen bij het in de juiste richting duwen naar de opsporing van dit soort mensen. Want laten we eerlijk wezen, pedofilie is een verschrikkelijke daad en mensen oppakken met onorthodoxe methoden is beter dan ze maar rond te laten lopen vanwege "muh freedom".
10-08-2021, 11:41 door -Peter-
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...

Wie had het hier over kinderporno? Apple wil controleren op kindermisbruik en dat kan best veel meer zijn dan alleen sexueel misbruik. Denk bijvoorbeeld aan kinderen die gedwongen worden in telefoonfabrieken te werken. Of niet?

Je had kunnen lezen, als je het artikel helemaal had gelezen, dat Kager nieuwe wetgeving voorstelt.
Daarnaast wordt er in Nederland ook al gekeken naar betere methoden om kindermisbruik te detecteren in bijvoorbeeld ziekenhuizen en bij huisartsen.

Peter
10-08-2021, 11:45 door Anoniem
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...
Dat bestaat al lang (niet dat het super werkt) hxxps://www.meldpunt-kinderporno.nl/over-ons/hash-database/
En hier over een onderdeel van de specifieke techniek hxxps://en.wikipedia.org/wiki/PhotoDNA

Dit hele project van Apple is al reeds in gebruik al jaren alleen het niveau waar het gebeurt dat verandert nu. (Hell Nederland is een van de landen die het hele concept heeft opgebouwd we trainen zelfs andere inlichtingen diensten en we zijn nauw betrokken bij wereldwijde operaties wegens datakabel knooppunten hier en expertise die we bezitten)

Als ISP heb je met dit soort systemen vaker te maken maar wat Apple nu doet is op de stoel van de agenschappen gaan zitten en een rol opeisen hierin met verdere bevoegdheid dan nu enige privaat heeft. Aangesloten ISP's kunnen de content op hun infra scannen tot X aantal per seconde via API en dit doorspelen naar betrokken eenheid maar wat ze niet kunnen is data zelf doorzoeken dit gaat geautomatiseerd via Sexual Child Abuse Reporting Tool (SCART) betaald via Stichting Internet Domeinnaam Registratie Nederland (SIDN) en uitgebreid met machine learning via PricewaterhouseCoopers (PwC) Enkele hele grote ISP's hebben een inhouse branche maar daar zitten dus ook politie medewerkers en niet mensen indienst bij de ISP.

En in 2019 is het hele survuilance net uitgebreid via CISCO super computer netwerk in AMS01 en wordt nog steeds uitgebreid. hxxps://www.eokm.nl/door-superserver-kinderporno-sneller-van-internet-af/


De reden waarom het vanuit de AVG niet is toegestaan is niet omdat we moeten rekenen op privacy maar omdat de partijen die hier verantwoordelijk voor zijn bij de politie bevoegdheden en inlichtingen onderdeel horen en daarmee buiten de AVG vallen. Apple heeft zich nooit hierbij aangesloten en als private organisatie mag het niet opzichzelf handelen en valt zolang het dus geen license to spy heeft onder de AVG.

En daarom houdt het argument van Apple ook geen stand dat dit bedoeld is tegen kinderporno omdat al die systemen al reeds bestaan over de hele wereld en daar is ook zeer weinig protest tegen geweest in verleden omdat het gebeurt op de infra van providers wat hun recht is en ieder die ooit data online heeft gezet toestemming voor heeft gegeven. (data mag niet verkocht worden maar kan worden gedeeld met autoriteiten bla bla bla) Maar nu wil Apple deze markt in en verder gaan dan menig bureau door lokaal te scannen en daarmee dus een wetdream van elke inlichtingen dienst ter wereld en regime te vervullen en dat is iets wat we niet kunnen permiteren.

En de reden waarom dit soort systemen niet echt werken is ook simpel. Helaas zijn deze verwerpelijke figuren die kindermisbruik verhandelen of beoefenen niet de domste. Ze weten dat dit soort systemen bestaan net als criminelen weten dat ze afgeluisterd kunnen worden en daarom zich eerder inlieten met gecodeerde telefoons (Encro chat etc) en nu waarschijnlijk nog meer lowtech zijn gegaan. En zelfs als je wel domme criminelen hiermee denkt te pakken is de praktijk altijd nog dat er personeels te kort is om alle zaken op te pakken er staat voor tientallen jaren aan achterstallige dossiers en er moet nu al gekozen worden tussen welk geval erger is. Laat staan dat ze dan meteen handelen vaak gaan ze eerst nog twee jaartjes of dergelijke infiltreren voor bewijs verzameling. En dit is maar puntje van de ijsberg qua wat er met onze informatie gebeurt en welke tools al gekoppeld zijn voor herkenning van zaken.

Nee Apple of wie dan ook wie ze hier gedwongen toe heeft heeft een verborgen motief. Dit gaat niet om kindermisbruik en dat maakt de hele situatie uitermate eng.
10-08-2021, 11:50 door Anoniem
Maar we zien toch wel welke richting het uitgaat?
Steeds meer surveillance opgetuigd via techniek (technologische oplossingen)

Crimineel vervolgd worden als men buiten de verklaarde visie gaat van wat men als ware wetenschap beschouwt.
Dit kan binnenkort wet worden.

Overal zogenaamde "mystery guests" in levende gedaante ofwel als technologische oplossing.
We gaan zo als we het niet afwijzen naar een heel vreemd soort transhumanistische maatschappij.

Overal Tineye Reverse? Zijn we klaar voor het globale panopticum van dit soort van werelddwingelandij?

#sockpuppet
10-08-2021, 11:51 door Anoniem
Door Anoniem:
Ook is het volgens Kager helemaal geen taak van Apple om afbeeldingen te scannen op kindermisbruik, aangezien dat een taak is van politie en andere opsporingsinstanties.
Dat zei ik gisteren ook al en ik vraag mij af hoe dit in het Nederlands rechtssysteem gaat sneuvelen. Want iemand die naar strafbare feiten mag speuren, moet ook een officiële opsporingsfunctie van de overheid hebben ontvangen. En Apple voldoet hier absoluut niet aan.

Dan zou Apple als alternatief een API voor de politie en justitie organisaties in de EU lidstaten moeten ontwikkelen en aanbieden, waar alleen die organisaties voor geautoriseerd zijn om daar monitoring applicaties voor te ontwikkelen, maar Apple zelf niet. Dan zouden we over een de facto ingebouwde achterdeur moeten spreken, te vergelijken met wat iedere in de EU gevestigde telecomprovider sowieso op last van het OM aan politie en justitie moet kunnen aanbieden.

Maar afgezien daarvan vrees ik, dat Apple is gezwicht voor de druk van de inlichtingen- en politiediensten in de VS die jarenlang en voortdurend naar een achterdeur in Apple-producten hebben gevraagd. En de reden voor die achterdeur was: de bestrijding van kinderporno en terrorisme.

Vergeet ook de afdeling zware criminaliteit niet. Cynisch maar realistisch gesteld, komt het er op neer dat het gecultiveerde privacy imago van Apple slechts een verdienmodel voor de goedgelovige bühne is, maar dat zodra het puntje bij het paaltje komt Apple zwicht voor de druk van de autoriteiten waar ze zaken mee doen. Zie hun knieval voor China. Dit belooft ook niet veel goeds voor de organisaties die zich inzetten voor op open source gebaseerde techniek.
10-08-2021, 13:38 door Anoniem
Door Anoniem:Want laten we eerlijk wezen, pedofilie is een verschrikkelijke daad en mensen oppakken met onorthodoxe methoden is beter dan ze maar rond te laten lopen vanwege "muh freedom".
Het probleem is natuurlijk dat wij in "onze cultuur" pedofilie verschrikkelijk vinden en bijvoorbeeld homofilie prima en
geheel eigen keus, terwijl in "andere culturen" precies het omgekeerde gevonden wordt.
Dus is het lastig om zo iets breed uit te rollen, dan zullen allerlei partijen toch verschillende eisen en wensen hebben
mbt wat er nou precies wel en niet moet worden doorgegeven. Dan kun je je als Apple wel proberen te beperken tot
1 vorm van misbruik (met ook nog eens dik boter op het hoofd zoals iemand anders al fijntjes suggereert) maar hoe
lang duurt het dan tot het bij de uitrol in andere landen weer op andere dingen scant?
10-08-2021, 13:55 door Erik van Straten - Bijgewerkt: 10-08-2021, 14:39
Door majortom: Er wordt een hash gemaakt die wordt vergeleken met een database van hashes die op kinderporno zouden duiden. Ik verander dus 1 pixel en wordt niet gedetecteerd.
De term "hash" in NeuralHash is (bewust?) verwarrend. Wat jij beschrijft is een cryptografische hash en daar heeft een NeuralHash (of PhotoDNA, maar ook een "hash" van biometrische data zoals een vingerafdruk-scan-"hash") niets mee te maken.

De overeenkomsten zijn dat het gaat om het "versnijden" van een bestand van willekeurige grootte dat een reeks bits oplevert van vaste lengte met een inhoud gerelateerd aan de inhoud van het bestand.

Belangrijke eisen aan een cryptografische hashfunctie zijn dat het wijzigen (of van volgorde veranderen) van één of meer bits in het bestand tot een (meestal totaal) andere hashwaarde leidt, met als daaraan gerelateerde eis dat, gegeven bestand X, het (binnen afzienbare tijd) onmogelijk moet zijn om een afwijkend bestand Y te vinden dat exact dezelfde cryptografische hashwaarde oplevert.

Bij NeuralHashes en PhotoDNA gaat het om fuzzy algoritmes waarbij naar specifieke karakteristieken in bitmaps wordt gekeken (en, denkbaar, bijv. 16 getallen van 16 bits achter elkaar worden geplakt voor een 256 bits "hash"). De "hashes" van twee bitmaps kun je vervolgens "van elkaar aftrekken" (het kan om andere rekenmethodes gaan) waarna het resultaat aangeeft hoeveel de twee bitmaps, "voor het menselijk oog", van elkaar afwijken. Afhankelijk van de context kun je daar een grenswaarde voor verzinnen. Net als bij op Bluetooth gebaseerde Corona-Apps zal die grenswaarde een statistisch compromis zijn tussen twee kwaden: nog meer false positives of nog meer false negatives.

Behoudens een onbruikbare instelling met nul false positives (en gigantisch veel false negatives, minimaal gewijzigde beelden die niet meer worden herkend) is de kans op collisions sowieso extreem veel groter dan bij cryptografische hashes (omdat het, zeg maar, om meerdere achter elkaar geplakte identifiers gaat).

Sterker, getracht wordt om de algoritmes van NeuralHashes en PhotoDNA geheim te houden (bron: [1]) om te voorkomen dat ongewenst materiaal zo kan worden gemanipuleerd dat het (net als malware door AntiVirus producten) niet meer als zodanig wordt gedetecteerd. Zodra deze software naar Apple devices wordt verspreid, kun je "erop wachten" totdat deze wordt ge-reverse-engineered.

Het omgekeerde risico bestaat ook: hoe kun je als afperser bestanden op iemands device zodanig manipuleren dat deze als CSAM worden herkend (maar jij ze niet kunt vinden omdat ze van geen kanten op CSAM lijken). En feitelijk hoef je dat niet eens te kunnen als afperser: degenen die mij spammen dat zij mijn account(s) hebben gehacked en mij met mijn eigen smartphone hebben gefilmd terwijl ik masturberend naar porno zat te kijken (en dreigen die beelden naar mijn familie te sturen als ik niet betaal), liegen immers ook.

Maar zodra gijzelcybercriminelen daadwerkelijk als CSAM gedetecteerd (al dan niet terecht) materiaal op jouw systemen (kunnen) plaatsen en meeversleutelen (of, om onmiddelijke detectie te voorkomen, op hun eigen systemen versleutelen met "jouw" sleutel, en dan op jouw opslag plaatsen), geeft dat een extra dimensie aan ransomware - ook als de encryptie niet zo sterk blijkt en/of je de decryptiesleutel op andere wijze in handen krijgt.

Last but not least: nog even los van de vraag of je het afschuwelijke probleem van kindermisbruik oplost door fotokijkers op te sporen (en wat dan): wie kijkt er nog naar foto's? Filmpjes zijn "in" (vermoedelijk geldt dat ook voor CSAM). Hoewel in [2] staat dat deze technologie ook voor video's zou werken, lijkt de door Apple aangekondigde software slechts naar foto's te "kijken". Welk probleem, anders dan toegeven aan de druk van naïeve overheden (voorbeeld: [3]) en pedojagers, lost Apple hier mee op?

[1] Uitgebreide en m.i. heldere uitleg van NeuralHashes en PhotoDNA, zie vanaf "Finding Similar Images" in https://blog.cloudflare.com/the-csam-scanning-tool/
[2] https://en.wikipedia.org/wiki/Hany_Farid#PhotoDNA
[3] https://www.zdnet.com/article/canberra-asks-big-tech-to-introduce-detection-capabilities-in-encrypted-communication/
10-08-2021, 14:04 door majortom
Door Erik van Straten:
Door majortom: Er wordt een hash gemaakt die wordt vergeleken met een database van hashes die op kinderporno zouden duiden. Ik verander dus 1 pixel en wordt niet gedetecteerd.
De term "hash" in NeuralHash is (bewust?) verwarrend. Wat jij beschrijft is een cryptografische hash en daar heeft een NeuralHash (of PhotoDNA, maar ook een "hash" van biometrische data zoals een vingerafdruk-scan-"hash") niets mee te maken.
...
Erik, hartelijk dank voor je input. Ik ging inderdaad uit van een cryptografische hash (waar je veel mee te maken hebt wordt je mee besmet).
10-08-2021, 14:41 door _R0N_
Door -Peter-:
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...

Wie had het hier over kinderporno? Apple wil controleren op kindermisbruik en dat kan best veel meer zijn dan alleen sexueel misbruik. Denk bijvoorbeeld aan kinderen die gedwongen worden in telefoonfabrieken te werken. Of niet?

Je had kunnen lezen, als je het artikel helemaal had gelezen, dat Kager nieuwe wetgeving voorstelt.
Daarnaast wordt er in Nederland ook al gekeken naar betere methoden om kindermisbruik te detecteren in bijvoorbeeld ziekenhuizen en bij huisartsen.

Peter

Apple wil hashes vergelijken van bestanden op je telefoon met hashes in hun database.
Ze zeggen dat het om hashes gaat van bekende kinderporno afbeeldingen maar als de NSA een hash geeft van "Mein Kampf", "Anarchist cookbook" of "Trump: How to Get Rich" wordt dat ook gewoon gevonden.
10-08-2021, 15:09 door Anoniem

Ook slaat de techniek natuurlijk nergens op. Er wordt een hash gemaakt die wordt vergeleken met een database van hashes die op kinderporno zouden duiden. Ik verander dus 1 pixel en wordt niet gedetecteerd. Kun je net zolang herhalen tot uiteindelijk alle hashes als kinderporno worden gezien: een soort van DOS aanval, maar dan op de kinderporno hash database.

Er word gebruik gemaakt van Perceptual hashing, waar gekeken word of afbeeldingen op elkaar lijken. 1 pixel veranderen zou hiermee gelijk resultaat moeten geven (net als croppen of kleuren veranderen)

https://en.wikipedia.org/wiki/Perceptual_hashing
10-08-2021, 15:41 door Anoniem
Klopt het argument is nu "kinderporno",
maar het huidge argument kan altijd gewijzigd worden
in geavanceerd met andere technische hulp surveillance modules
die eraan worden toegevoegd.

The Matrix
10-08-2021, 15:52 door Anoniem
Mogelijkheden genoeg
met gedrags-software.

Bij elke gedrags fout begint je smartphone te piepen,
en zie je een upload op je scherm verschijnen naar
een onbekende server.

Je staat te wild plassen piep piep
Je loopt door het rode stoplicht piep piep
Je bent niet gevaccineerd piep piep piep
Je moet nog een rekening betalen piep piep
Je moet nog op je afspraak verschijnen piep piep
Je belastingaangifte moet je doen piep piep piep
en nog veel meer gedrags controle piep piep piep

Tijd om afscheid te nemen van je smartphone,
je wilt toch graag zelf je eigen boterham kunnen smeren
of moet je dit eerst vragen aan je smartphone?

Nokia (sms/bellen)gebruiker
10-08-2021, 16:16 door Anoniem
Daarnaast is het voor de politie lastig om door Apple's iCloud te zoeken, wat ofwel beveiligingsgaten ofwel toestemming van Apple zelf nodig heeft. Voor het oppakken van dergelijke personen zou Apple niet verantwoordelijk moeten worden inderdaad, maar het kan zo wel de politie helpen bij het in de juiste richting duwen naar de opsporing van dit soort mensen. Want laten we eerlijk wezen, pedofilie is een verschrikkelijke daad en mensen oppakken met onorthodoxe methoden is beter dan ze maar rond te laten lopen vanwege "muh freedom".

Net zoals moord een verschrikkelijke daad is, mensen afranselen een verschrikkelijke daad is (ook al zijn ze pedo overigens), opzettelijk mensen mutileren een verschrikkelijke daad is, verkrachting een verschrikelijke daad is, etc. Maar allen nog geen reden om onorthodoxe methoden in te zetten die de rechten van burgers inkrimpt. En laten we duidelijk zijn: iedereen is schuldig tot het tegendeel is bewezen gaat in het strafrecht gelukkig niet op...
10-08-2021, 16:41 door karma4 - Bijgewerkt: 10-08-2021, 16:44
Door Anoniem: In plaats van dit commentaar zou je ook zelf kunnen komen met opties om kinderporno te bestrijden... Dat lijkt een flauwe opmerking, maar ICTRecht gaat natuurlijk niet over techniek, noch over het maken van wetten of beleid. Net zoals jij.
Net zo flauw natuurlijk want het gaat niet over de techniek maar over de wet en wat acceptabel is.
Je wilt vast niet zeggen dat oplichting en misdaad toegestaan is omdat de handhaving verboden is. Het is met de eenzijdige opstelling van niet willen duiden hoe je misdaad tegengaat maar wel hoe je de handhaving tegengaat dat je in een kamp zet.

Door Anoniem: Maar afgezien daarvan vrees ik, dat Apple is gezwicht voor de druk van de inlichtingen- en politiediensten in de VS die jarenlang en voortdurend naar een achterdeur in Apple-producten hebben gevraagd. En de reden voor die achterdeur was: de bestrijding van kinderporno en terrorisme.
Nou nee, daar is niet om gevraagd. Het ging in die betreffende zaak om een met name genoemd toestel.
Het lijkt er meer op dat de foute uitspraak van Apple dat daarom gevraagd zou zijn teruggedraaid wordt. Het is niet goed als je faciliterend naar misdaad goedpraat door geen samenwerking met handhaving te willen.
10-08-2021, 16:58 door Anoniem
Ze willen graag voer voor hun A.I..
Omdat dit de meest geaccepteerde reden is proberen ze het zo.
Binnenkort komen ze met iets anders.

Trouwens : Adobe foto software "tagt" je fotos ook op de achtergrond, door te kijken wat er in is te zien.
Zo hebben ze allemaal een smoes om de concurrent met de beste A.I. af te troefen.
10-08-2021, 20:28 door botbot - Bijgewerkt: 10-08-2021, 20:32
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...
|

Als je dit meent dan snap je het niet echt he. Als je dit serieus meent, dan moet je eens gaan nadenken over het feit dat jij de personificatie bent van degenen die opteren voor een algehele politiestaat. Het verval van een vrije samenleving begon bij jou.

Ik zal het even verduidelijken: "In plaats van het niet toestaan kunnen ze ook komen met andere opties komen".

Hiermee leg jij dus de verantwoordelijkheid van het opsporen van kinderporno bij de AVG. Dat *is niet hun taak*.
Om het even te illustreren: "Wij willen de AVG aan onze reet lappen. Mag dat niet? Oh zoek *jij* dan maar een manier hoe we *ons werk* wel kunnen doen".

De taak van de AVG is het garanderen van onze privacy. Niet meer, niet minder. Het is niet de taak van de AVG om kinderporno op te sporen. Mensen die kinderporno willen opsporen moeten dat doen met in achtneming van de AVG. Want de taak van de AVG is het beschermen van onze privacy.

En nee, dooddoeners als: "Oh ben jij voor kinderporno" zijn uit hetzelfde hout gesneden. Daar red je het niet mee.
10-08-2021, 20:29 door [Account Verwijderd]
Door -Peter-:
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...

Wie had het hier over kinderporno? Apple wil controleren op kindermisbruik en dat kan best veel meer zijn dan alleen sexueel misbruik. Denk bijvoorbeeld aan kinderen die gedwongen worden in telefoonfabrieken te werken.

Scherp. Kinderporno is iedereen hard op tegen maar voor kinderarbeid wordt massaal de andere kant op gekeken. Uitbuiten blijft tenslotte uitbuiten.
10-08-2021, 20:37 door botbot
Door karma4:
Door Anoniem: In plaats van dit commentaar zou je ook zelf kunnen komen met opties om kinderporno te bestrijden... Dat lijkt een flauwe opmerking, maar ICTRecht gaat natuurlijk niet over techniek, noch over het maken van wetten of beleid. Net zoals jij.
Net zo flauw natuurlijk want het gaat niet over de techniek maar over de wet en wat acceptabel is.
Je wilt vast niet zeggen dat oplichting en misdaad toegestaan is omdat de handhaving verboden is. Het is met de eenzijdige opstelling van niet willen duiden hoe je misdaad tegengaat maar wel hoe je de handhaving tegengaat dat je in een kamp zet.

Door Anoniem: Maar afgezien daarvan vrees ik, dat Apple is gezwicht voor de druk van de inlichtingen- en politiediensten in de VS die jarenlang en voortdurend naar een achterdeur in Apple-producten hebben gevraagd. En de reden voor die achterdeur was: de bestrijding van kinderporno en terrorisme.
Nou nee, daar is niet om gevraagd. Het ging in die betreffende zaak om een met name genoemd toestel.
Het lijkt er meer op dat de foute uitspraak van Apple dat daarom gevraagd zou zijn teruggedraaid wordt. Het is niet goed als je faciliterend naar misdaad goedpraat door geen samenwerking met handhaving te willen.

Jezus karma4, je gedachtenspinsels zijn sinds ik hier me op security.nl begeef al ondoorgrondelijker geworden.
11-08-2021, 07:52 door Anoniem
Door karma4: Net zo flauw natuurlijk want het gaat niet over de techniek maar over de wet en wat acceptabel is.

Een wet heeft niets met realiteit te maken.
Er kan een wet aangenomen worden die zegt dat het in de zomer moet sneeuwen of dat regen van beneden naar boven moet vallen. (Of dat je een achterdeur in encryptie wilt, zonder encryptie te verzwakken)
Dat dat in de praktijk niet (of moeilijk) kan, betekent niet dat je er geen wet voor kunt aannemen.
De natuur kan dan via de rechter gedwongen worden zich aan de geldende wet te houden :-)
11-08-2021, 09:48 door Anoniem
Door Rotsmoel:
Door -Peter-:
Door Anoniem: In plaats van het niet toestaan kunnen ze ook komen met andere opties om kinderporno te bestrijden...

Wie had het hier over kinderporno? Apple wil controleren op kindermisbruik en dat kan best veel meer zijn dan alleen sexueel misbruik. Denk bijvoorbeeld aan kinderen die gedwongen worden in telefoonfabrieken te werken.

Scherp. Kinderporno is iedereen hard op tegen maar voor kinderarbeid wordt massaal de andere kant op gekeken. Uitbuiten blijft tenslotte uitbuiten.

Inderdaad wel allemaal schoenen en een telefoon kopen bij een bedrijf met een vaag productie process. Werd apple daar zelf ook niet van verdacht?
11-08-2021, 09:55 door Anoniem
Ik wist niet dat het zulk slecht volk was die apple kopers, dat ze hun eigen klanten moeten scannen op kinder 'abusers'.
11-08-2021, 10:04 door Anoniem
Door Erik van Straten:
Door majortom: Er wordt een hash gemaakt die wordt vergeleken met een database van hashes die op kinderporno zouden duiden. Ik verander dus 1 pixel en wordt niet gedetecteerd.
De term "hash" in NeuralHash is (bewust?) verwarrend. Wat jij beschrijft is een cryptografische hash en daar heeft een NeuralHash (of PhotoDNA, maar ook een "hash" van biometrische data zoals een vingerafdruk-scan-"hash") niets mee te maken.

De overeenkomsten zijn dat het gaat om het "versnijden" van een bestand van willekeurige grootte dat een reeks bits oplevert van vaste lengte met een inhoud gerelateerd aan de inhoud van het bestand.
Aardig is om te bedenken dat het woord hash afgeleid is van het Franse werkwoord hacher, dat hakken betekent. De naam van het gerecht hachee komt daar ook vandaan. Ik vind dat het niet verwarrend is als je bedenkt dat het woord hash niet uitsluitend op een cryptografische hash slaat maar voor alles dat als het ware digitaal versneden of (beter bij de gebruikte term aansluitend) verhakt wordt tot iets anders.

Ik zou iedereen trouwens aanraden om regelmatig de herkomst (etymologie) van de woorden die je tegenkomt op te zoeken. Jargonwoorden zijn vaak bestaande woorden waar een nieuwe betekenis aan is opgehangen in de context van een vakgebied. De oorspronkelijke betekenis van het woord zegt vaak heel wat over hoe het woord eigenlijk bedoeld is.

Ook relevant is Apple's eigen beschrijving ervan:
https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf
11-08-2021, 10:05 door Anoniem
Maar dan is er ook natuurlijk nog steeds het meten met twee maten, waarbij zaken pas aan de orde kunnen komen als de daders al overleden zijn. Denk aan het Jimmy Saville verhaal destijds in het Verenigd Koninkrijk en slachtoffers van de "bescherming" rond dit soort figuren zoals de vermoorde Jill Dando. Sommige dieren zijn hierin "gelijker" dan andere dieren. De rest is afleiding van wat er werkelijk gebeurt of te gebeuren staat.

Hier wreekt zich ook weer de jarenlange eenzijdige educatie en totale brainwashing van de massa's. Zo ook met het geprefereerde CO2 verhaal (broeikasgas grotendeels geproduceerd op onze oceanen), doch we moeten allemaal geloven in het verhaal, zoals Al Gore dat uitlegde op zijn CD's, die overal destijds werden verspreid bij o.a. grootdrogisterijen als enig zaligmakende waarheid. Oh, de Wadden zouden zomaar kunnen gaan verdwijnen, kopt de krant. Er is maar een klein clubje superrijken, die uiteindelijk van dergelijke agenda's volop profijt trekt, de rest zijn horigen en slaven.

Met de globale gezondheidsparodie laatstelijk is het allemaal nog weer eens in een stroomversnelling gekomen. We moeten allemaal onder complete controle komen te staan, ook qua onze denkbeelden en opvattingen, als A.I. regeert binnen de singulariteit. Je mag al niet meer buiten bepaalde vaste lijnen komen te denken of iets is taboe verklaard op grond van een dreiging (en die zijn er zoveel). Nu haalt de wereldelite de buit binnen, finaal en zonder dralen. Das Endspiel.

Facebook, Google, Amazon, Apple, allemaal helpen ze daar een handje bij mee. En natuurlijk ook de gebrainwashte main-stream denkers en postbus 51-waarheden-verkondigers als hierboven in de draad. Conformist tot in de kist en zo de wind waait, waait m'n jasje figuren. Voor de smeer likt de kat de kandeleer posters. Steeds meer materieel gericht en geestelijk ontwricht. Een herhaling van het Romeinse Rijk met brood en spelen en grotendeels afhankelijk van slavernij (denk aan Alexandrie en Massada als bedreigingen voor deze maatschappij en daarom een door hen ontworpen godsdienst, die de slaven verlossing en betere tijden belooft in een hiernamaals). Ja, na uw dood, wordt alles vast beter, maar hier nog even niet dus.

Blijvend agressief naar alles en iedereen, die anders denken wil dan het voorgeschreven verhaal in de steeds meer totalitaire globale samenleving van heden. De vrije gedachte verdwenen. De verborgen hand achter de schermen hoeft er niets meer aan te doen, de tegen elkaar uitgespeelde partijen verketteren elkander wel en staan tenslotte elkaar soms letterlijk verbaal naar het leven,

#sockpuppet
11-08-2021, 10:28 door Anoniem
Door Anoniem: Nee Apple of wie dan ook wie ze hier gedwongen toe heeft heeft een verborgen motief. Dit gaat niet om kindermisbruik en dat maakt de hele situatie uitermate eng.

Apple heeft in de rijke suburbs van VS een progressief imago gecultiveerd, dat voortkomt uit de Californische ideologie en Apple's "Think Different" reclamecampagne. De machtige rechts-conservatieve lobby in de VS moet daar niets van hebben, want die hebben een bloedhekel aan het counterculture gedachtengoed van de Woodstock-generatie van 1969.

Dat vormt nu een obstakel voor Apple. In een sterk gepolariseerde natie, die lijdt onder de vele school shootings en de naschokken van Trump, vormt een extra schakering als goede kinderbeschermer daarom een welkome aanvulling voor Apple's corporate kameleon-strategie. Dit om de republikeinen in de Mid-West en de rust belt tevreden te houden.

Apple als de veilige thuishaven voor het gezin in de hardwerkende middenklasse met schoolgaande kinderen.

This ideology mixed New Left and New Right beliefs together based on their shared interest in anti-statism, the counterculture of the 1960s, and techno-utopianism.

https://en.wikipedia.org/wiki/The_Californian_Ideology


Een firma die zich opwerpt als de grote kinderbeschermer, die vergeef je ook wel het misbruik van kinderarbeid in Azië.

https://www.businessinsider.com/apple-knowingly-used-child-labor-supplier-3-years-cut-costs-2020-12
12-08-2021, 10:06 door Anoniem
Door Anoniem:
Door Anoniem:
Ook is het volgens Kager helemaal geen taak van Apple om afbeeldingen te scannen op kindermisbruik, aangezien dat een taak is van politie en andere opsporingsinstanties.
Dat zei ik gisteren ook al en ik vraag mij af hoe dit in het Nederlands rechtssysteem gaat sneuvelen. Want iemand die naar strafbare feiten mag speuren, moet ook een officiële opsporingsfunctie van de overheid hebben ontvangen. En Apple voldoet hier absoluut niet aan.

Dan zou Apple als alternatief een API voor de politie en justitie organisaties in de EU lidstaten moeten ontwikkelen en aanbieden, waar alleen die organisaties voor geautoriseerd zijn om daar monitoring applicaties voor te ontwikkelen, maar Apple zelf niet. Dan zouden we over een de facto ingebouwde achterdeur moeten spreken, te vergelijken met wat iedere in de EU gevestigde telecomprovider sowieso op last van het OM aan politie en justitie moet kunnen aanbieden.

Maar afgezien daarvan vrees ik, dat Apple is gezwicht voor de druk van de inlichtingen- en politiediensten in de VS die jarenlang en voortdurend naar een achterdeur in Apple-producten hebben gevraagd. En de reden voor die achterdeur was: de bestrijding van kinderporno en terrorisme.

Vergeet ook de afdeling zware criminaliteit niet. Cynisch maar realistisch gesteld, komt het er op neer dat het gecultiveerde privacy imago van Apple slechts een verdienmodel voor de goedgelovige bühne is, maar dat zodra het puntje bij het paaltje komt Apple zwicht voor de druk van de autoriteiten waar ze zaken mee doen. Zie hun knieval voor China. Dit belooft ook niet veel goeds voor de organisaties die zich inzetten voor op open source gebaseerde techniek.

Nu is het nog om zogenaamd kindermisbruik op te sporen maar als het mechanisme er toch is dan ook maar meteen alle onwelvallige meningen opsporen want iedereen die tegen het narratief in gaat moet natuurlijk wel opgespoord worden.
STASI 2.0 in wording. Nu nog even regelen dat de nukubu's hun buren gaan aangeven tegen een kleine vergoeding en we zijn totalitair in control. History on repeat.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.