image

Apple probeert met FAQ zorgen over scannen van afbeeldingen weg te nemen

maandag 9 augustus 2021, 14:31 door Redactie, 12 reacties

De plannen van Apple om afbeeldingen van Amerikaanse gebruikers op kindermisbruik te controleren zorgden afgelopen dagen voor felle kritiek van burgerrechtenbewegingen, privacydeskundigen en andere experts. Een open brief waarin Apple werd opgeroepen om van de plannen af te zien is door meer dan zesduizend mensen en tal van organisaties ondertekend.

Het techbedrijf zet de plannen echter door en heeft nu een FAQ gepubliceerd in een poging om de ontstane zorgen bij gebruikers weg te nemen (pdf). In de FAQ claimt Apple dat de technologie alleen voor de detectie van kindermisbruik wordt ingezet en het achterliggende proces zo is ontworpen dat er geen andere afbeeldingen in het systeem "geïnjecteerd" kunnen worden om gebruikers voor andere zaken dan kindermisbruik te rapporteren.

Verder stelt het techbedrijf dat er voor het doen van een melding eerst een menselijke controle plaatsvindt en het scannen geen inbreuk op de end-to-end encryptie van iMessage maakt. Amerikaanse Burgerrechtenbewegingen zoals de EFF hadden gezegd dat Apple met de scanfeature een backdoor aan iCloud Photos en iMessage toevoegt. Wat betreft het scannen van afbeeldingen bij iMessage schrijft Apple dat er via de feature geen informatie met onder andere opsporingsdiensten wordt gedeeld.

Apple gaat de feature dit jaar doorvoeren via updates voor iOS 15, iPadOS 15, watchOS 8 en macOS Monterey.

Reacties (12)
09-08-2021, 15:49 door buttonius
Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect
things other than CSAM?

Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is
built so that the system only works with CSAM image hashes provided by NCMEC and other
child safety organizations.

Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst.
09-08-2021, 20:26 door [Account Verwijderd] - Bijgewerkt: 09-08-2021, 20:29
Door buttonius: Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect
things other than CSAM?

Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is
built so that the system only works with CSAM image hashes provided by NCMEC and other
child safety organizations.

Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst.

En dat blinde vertrouwen is de achilleshiel vanaf het moment dat de mens als 'mens' leerde denken en handelen.
Elizabeth I, (The virgin queen) dochter van Anna Boleyn wist misschien als geen ander van adel al in haar tijd (1533-1603) dat je niemand kon vertrouwen.
Ankedotisch is wel het volgende: Op de vraag van een balorige toerist aan een willekeurige Engelsman in een pub in de buurt van The Tower (London) of hij iemand in zijn familie had die geëxecuteerd was, kwam als antwoord: "Neen, maar ik ben ook niet van adel"...

Ik denk dat vertrouwen bieden en aannemen een van de meest misbruikte en beschaamde gedragseigenschappen is van de mens. Dat is geen doemdenken maar gewoon nuchtere beschouwing van de mens in zijn biotoop (maatschappij)
09-08-2021, 21:22 door Anoniem
Door buttonius: Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect
things other than CSAM?

Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is
built so that the system only works with CSAM image hashes provided by NCMEC and other
child safety organizations.

Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst.
Er is geen vertrouwen meer mogelijk. Apple heeft hiermee getoond nooit meer als serieus optie gekozen te kunnen worden als het om privacy gaat. Privé apparaten blijven hier op iOS 14 en zullen nooit meer geupdate worden. Dit heeft verre gevolgen die Apple blijkbaar niet wil overzien of gedwongen wordt te negeren (grotere kans)

In ons bedrijf alleen al mag niemand zometeen meer werken met Apple (in werking vanaf 31-08-2021) omdat de vertrouwelijkheid van gegevens niet langer kan worden gewaarborgd en alle Apple apparaten zullen worden verbannen van het gasten netwerk. We hebben dit ooit eens eerder tijdelijk moeten doen met Lenovo's tijdens het Superfish debacle maar dit wordt een eerste in onze geschiedenis dat we een permanente beperking opleggen omtrent bedrijfs spionage voorkomen.

Dit bericht van Apple is pure damagecontrol en voor de gemiddelde consument die zal zich hier niks van aantrekken maar enig persoon met kennis omtrent cybersecurity en bedrijfsvoering snapt de gevaren hiervan. Apple heeft zich verkeken in de kritiek die ze zouden krijgen met de aankondiging en grote kans dat een uitbreiding op dit plan gewoon niet meer aangekondigd zal worden tot het of doorgevoerd is of uitlekt is aanzienlijk.

En de hele idee dat dit tegen kindermisbruik gaat dienen is bullcrap. Alle media wordt tegenwoordig al gescanned door dit soort systemen dat gebeurt bij de providers. In Nederland hebben we het Expertisebureau Online Kindermisbruik (EOKM) en Stichting Digitale Infrastructuur Nederland (DINL) dat samen werkt met Politie afdelingen. Heeft sinds enkele jaren al zo hash check dienst middles PhotoDNA en andere machine learning (die voor geen meter werkt) hxxps://www.meldpunt-kinderporno.nl/over-ons/hash-database/

Verschil is het draait centraal doet niks lokaal en staat onder zeer streng toezicht. Apple echter niet. We weten niet wat ze met de data doen we weten niet wat ze verder in verschiet hebben en we weten niet met wie het werkelijk gedeeld wordt.

Bottom line Apple is nu vijand verklaart in de cybersecurity wereld.
09-08-2021, 22:08 door Anoniem
Door buttonius: Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect
things other than CSAM?

Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is
built so that the system only works with CSAM image hashes provided by NCMEC and other
child safety organizations.

Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst.

Erger nog, het is niet zo zeer Apple die we moeten vertrouwen maar de 3e partijen die de hashes aanleveren. Apple kan natuurlijk nooit borgen dat die partijen geen hashes injecteren van hun schoonmoeder of, op aangeven van een overheid, meme's die anti overheid zijn (noem een willekeurig land waar apple productie heeft en anti overheid sentiment niet is toegestaan.)
10-08-2021, 09:43 door Anoniem
Misschien ben ik naïef, maar ik heb de indruk dat Google al heel lang veel verder gaat. Ik heb een Android en mijn foto's worden dus standaard geüpload naar Google Foto's. Voordat ik die Android telefoon had sloeg ik ook al veel van mijn digitale foto's op bij Google.

Onlangs ontving ik een compilatie van Google van mijn foto's genomen sinds 2006 waar zeeën en meren opstaan. Zelf heb ik nooit daarop gesorteerd, dus Google moet dat met beeldherkenning en artificial intelligence gedaan hebben. Ik vraag me af wat er gebeurd zou zijn als ik foto's van blote kinderen (of erger) opgeslagen zou hebben?
10-08-2021, 09:48 door Anoniem
Apple benadrukt dat nieuwe functie alleen op kinderporno scant

Hoewel Apple verzekert dat het niet zal voldoen aan verzoeken van overheden om de software aan te passen, wijst techwebsite The Verge erop dat Apple dit eerder wel heeft gedaan. Zo is videobellen met Facetime niet mogelijk in Saudi-Arabië, Pakistan en de Verenigde Arabische Emiraten waar versleutelde telefoongesprekken niet zijn toegestaan. En in China zijn veel apps uit de app-store verwijderd en Apple staat het toe dat iCloud-data van Chinese gebruikers op een door de Chinese overheid beheerde server staan.

https://nos.nl/artikel/2393312-apple-benadrukt-dat-nieuwe-functie-alleen-op-kinderporno-scant


Apple: "We will not accede to any government’s request to expand it."

It’s worth noting that despite Apple’s assurances, the company has made concessions to governments in the past in order to continue operating in their countries. It sells iPhones without FaceTime in countries that don’t allow encrypted phone calls, and in China it’s removed thousands of apps from its App Store, as well as moved to store user data on the servers of a state-run telecom.

https://www.theverge.com/2021/8/9/22616381/apple-child-sexual-abuse-material-scanning-icloud-faq-pushback-privacy
10-08-2021, 12:58 door Anoniem
In de FAQ claimt Apple dat de technologie alleen voor de detectie van kindermisbruik wordt ingezet en het achterliggende proces zo is ontworpen dat er geen andere afbeeldingen in het systeem "geïnjecteerd" kunnen worden om gebruikers voor andere zaken dan kindermisbruik te rapporteren.

In ander nieuws, Sinterklaas bestaat echt.

Het vervelende is dat dergelijke toezeggingen niet veel waard zijn. Je begint met 100% toezegging van waarborgen. Daar komt 95% van terecht. Dan wordt een nieuwe toezegging van 90% gedaan etc.

Nog afgezien daarvan, Apple is geen eiland in de wereld. Door dwang, drang, of simpelweg door in te breken in het systeem kunnen en zullen derde partijen andere wegen vinden om er gebruik van te maken. Dat uiteraard criticasters en klagers vooraan in de rij staan zal iedereen herkennen.
10-08-2021, 14:11 door Anoniem
Door Anoniem:
In ons bedrijf alleen al mag niemand zometeen meer werken met Apple (in werking vanaf 31-08-2021) omdat de vertrouwelijkheid van gegevens niet langer kan worden gewaarborgd en alle Apple apparaten zullen worden verbannen van het gasten netwerk. We hebben dit ooit eens eerder tijdelijk moeten doen met Lenovo's tijdens het Superfish debacle maar dit wordt een eerste in onze geschiedenis dat we een permanente beperking opleggen omtrent bedrijfs spionage voorkomen.
Je bluft! Dat gaat echt niet gebeuren, ook niet in "jouw bedrijf" (tenzij dat een eenmansbedrijf met een stagiair is).
10-08-2021, 15:03 door Anoniem
De echte les die we hiervan kunnen leren is natuurlijk: Zet niets in iCloud wat je niet op een publieke website zou zetten. Apple bewijst hiermee immers dat ze onbeperkte toegang hebben tot jouw data en dat ze er maar al te graag in rond snuffelen.
11-08-2021, 07:38 door Anoniem
Verder stelt het techbedrijf dat er voor het doen van een melding eerst een menselijke controle plaatsvindt

Dus Apple heeft iemand in dienst die naar naakt-foto's van (je) kinderen aan het kijken is.
Alsof dat niet pervers is.
11-08-2021, 23:03 door Anoniem
Dit kan Apple misschien nog wel eens gaan opbreken. Wie controleert of is verantwoordelijk voor de database met hash-codes? Het kan dan in de toekomst interessant zijn om een aanval in te zetten op de database om deze aan te vullen met 'onwelgevallige' data.
Amerikanen en Canadezen zijn behoorlijk neurotisch over ouderlijk toezicht m.b.t. kinderen en dit gebeuren past wel in het verlengde hiervan.
Het echte geteisem zorgt er ondertussen wel voor dat ze buiten schot blijven en/of zoveel mogelijk onder de radar opereren, dus of deze move van Apple echt gaat helpen?
16-08-2021, 12:03 door Anoniem
Door Anoniem: De echte les die we hiervan kunnen leren is natuurlijk: Zet niets in iCloud wat je niet op een publieke website zou zetten. Apple bewijst hiermee immers dat ze onbeperkte toegang hebben tot jouw data en dat ze er maar al te graag in rond snuffelen.
Het punt is, ze scannen op het apparaat en niet op iCloud. Dus maakt het niets uit, ze komen er toch wel bij. De maatregel is bovendien halfbakken. Ze gebruiken hashes van bekende foto's. Daarmee pakken ze alleen de gluurders, niet de makers. Nu is het wel goed, dat er niet meer gegluurd kan worden, maar de makers zijn het grotere probleem. Die doen de grove dingen. De gluurders zijn meer zoals verslaafden, eenmaal betroffen, komen die er alleen met veel moeite vanaf.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.