Abuse Melding

Je hebt een klacht over de onderstaande posting:

09-08-2021, 22:08 door Anoniem

Door buttonius: Uit de gelinkte PDF: Can the CSAM detection system in iCloud Photos be used to detect things other than CSAM? Our process is designed to prevent that from happening. CSAM detection for iCloud Photos is built so that the system only works with CSAM image hashes provided by NCMEC and other child safety organizations. Oftewel: Ja dat kan. De lijst van hashes is een combinatie van meerdere zulke lijsten (afkomstig van verschillende child safety organizations. Het is derhalve mogelijk om daar wat aan toe te voegen. Maar Apple richt de processen zo in dat dit niet kan of zal gebeuren. We moeten Apple dus blindelings vertrouwen dat ze hun eigen procedures perfect zullen volgen; vandaag en in de toekomst. Erger nog, het is niet zo zeer Apple die we moeten vertrouwen maar de 3e partijen die de hashes aanleveren. Apple kan natuurlijk nooit borgen dat die partijen geen hashes injecteren van hun schoonmoeder of, op aangeven van een overheid, meme's die anti overheid zijn (noem een willekeurig land waar ...

Beschrijf je klacht (Optioneel):

captcha