Abuse Melding

Je hebt een klacht over de onderstaande posting:

09-08-2021, 21:22 door Anoniem

Door buttonius: Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect things other than CSAM? Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is built so that the system only works with CSAM image hashes provided by NCMEC and other child safety organizations. Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst. Er is geen vertrouwen meer mogelijk. Apple heeft hiermee getoond nooit meer als serieus optie gekozen te kunnen worden als het om privacy gaat. Privé apparaten blijven hier op iOS 14 en zullen nooit meer geupdate worden. Dit heeft verre gevolgen die Apple blijkbaar niet wil overzien of gedwongen ...

Beschrijf je klacht (Optioneel):

captcha