Abuse Melding

Je hebt een klacht over de onderstaande posting:

10-08-2021, 11:40 door Anoniem

Het voelt voor mij aan als een complete misinterpretatie van wat er in feite gebeurt, hier is wat Apple zelf zei: Kunnen overheden Apple dwingen om niet-CSAM-afbeeldingen toe te voegen aan de hash-lijst? Apple zal dergelijke eisen weigeren. De CSAM-detectiemogelijkheid van Apple is uitsluitend gebouwd om bekende CSAM-afbeeldingen te detecteren die zijn opgeslagen in iCloud-foto's en die zijn geïdentificeerd door experts van NCMEC en andere kinderveiligheidsgroepen. We zijn geconfronteerd met eisen om door de overheid gedateerde veranderingen te bouwen en in te zetten die de privacy van gebruikers eerder aan de kaak stellen, en hebben die eisen standvastig geweigerd. We zullen ze in de toekomst blijven weigeren. Laten we duidelijk zijn, deze technologie is beperkt tot het detecteren van CSAM die is opgeslagen in iCloud en we zullen niet ingaan op het verzoek van een overheid om het uit te breiden. Bovendien voert Apple menselijke beoordeling uit voordat het een rapport maakt aan NCMEC. In het geval dat het ...

Beschrijf je klacht (Optioneel):

captcha