Je hebt een klacht over de onderstaande posting:
Door de professionalisering van AI op gebied van video en imaging zien we steeds vaker dat fraudevormen hier gebruik/ misbruik van maken. Zie b.v. het NOS-artikel van een paar maanden geleden, waarin duidelijk werd dat facturen worden gegenereerd om verzekeraars op te lichten (https://nos.nl/artikel/2571597-fraudeurs-vervalsen-documenten-met-ai-voor-nepclaims-bij-verzekeraars). Ik kwam een artikel tegen op IEEE Spectrum (https://spectrum.ieee.org/), waarin wordt beschreven dat audiofragmenten nu ook real-time kunnen worden gegenereerd. Kortom, de aanvaller is niet meer gebonden aan een letterlijk te volgen script om mensen om de tuin te leiden. Zie https://www.nccgroup.com/research-blog/voice-impersonation-and-deepfake-vishing-in-realtime/, alsmede het bijbehorende artikel op https://www.nccgroup.com/media/zw5iy13i/voice-impersonation-and-deepfake-vishing-in-realtime.pdf. Zijn deze ontwikkelingen voor de lezers hier reden om andere processen of beheersmaatregelen af te dwingen? Denk aan het fysiek ...
Beschrijf je klacht (Optioneel):