image

FTC: techniek alleen kan risico's gekloonde stemmen niet aanpakken

donderdag 4 januari 2024, 14:12 door Redactie, 2 reacties

Techniek alleen is niet voldoende om misbruik van gekloonde stemmen door criminelen tegen te gaan, zo stelt de Amerikaanse toezichthouder FTC. De toezichthouder is een wedstrijd gestart waarbij deelnemers oplossingen kunnen inzenden om mensen tegen zaken als fraude te beschermen die door middel van gekloonde stemmen kan plaatsvinden.

Vorig jaar kwam de FTC al met een waarschuwing voor 'voice cloning', waarbij criminelen zich als een bekende voordoen en stellen dat het slachtoffer snel geld moet overmaken. Met de nu gestarte wedstrijd wordt gezocht naar oplossingen die moeten voorkomen dat iemand zich met een gekloonde stem kan authenticeren, of dat gekloonde stemmen in real-time kunnen worden gemonitord of gedetecteerd.

Verder wordt er gezocht naar oplossingen die aan de hand van opgenomen audio kunnen vaststellen dat het om een gekloonde stem ging. De oplossingen zijn bedoeld voor bedrijven en ontwikkelaars die diensten of producten aanbieden waarmee het klonen van stemmen mogelijk is, zodat er vervolgens maatregelen kunnen worden getroffen om misbruik tegen te gaan of detecteren.

"En als er geen levensvatbare ideeën verschijnen, stuurt dit een belangrijke en vroege waarschuwing naar beleidsmakers dat ze strengere beperkingen moeten stellen aan het gebruik van deze technologie, gegeven de uitdagingen in het voorkomen van schadelijke ontwikkelingen in de markt", aldus de FTC.

De toezichthouder voegt toe dat de wedstrijd onderdeel van een bredere strategie is. "De risico's van voice cloning en andere AI-technologie kan niet alleen door technologie worden opgelost. Het is duidelijk dat beleidsmakers niet op zelfregulering kunnen rekenen om het publiek te beschermen." Inzendingen kunnen tot 12 januari worden opgestuurd. Begin 2024 worden de resultaten bekendgemaakt.

Reacties (2)
FTC: ""De risico's van voice cloning en andere AI-technologie kan niet alleen door technologie worden opgelost. Het is duidelijk dat beleidsmakers niet op zelfregulering kunnen rekenen om het publiek te beschermen."

Volkomen juist. Maar dit geldt niet alleen voor AI-technologie, het geldt voor alle digitale technologie. Dit was al tien jaar geleden duidelijk, maar tot nu toe hebben onze bestuurders en politici hiervan niet (openlijk) willen weten. Al die tijd zijn we gepusht om onszelf meer en meer afhankelijk te maken van onveilige digitale technologieën, waarbij de fantasie aan ons werd opgedrongen dat de digitale good guys de race op de één of andere manier van de digitale bad guys zouden gaan winnen.

Bovendien zullen ook niet-technologische "beperkende" (lees: repressieve) maatregelen niet voldoende zijn als oplossing. De enige oplossing is om op cruciale punten weer constructief, persoonlijk, rechtstreeks contact tussen betrouwbare mensen in te bouwen in de infrastructuren voor administratieve processen, andere werkprocessen en het afhandelen van transacties.

Dit vereist ook dat men aandacht gaat besteden aan het vraagstuk hoe men bij mensen intrinsiek betrouwbaar gedrag kan bevorderen (dus niet alleen het calculerend pseudo-betrouwbaar gedrag, dat steeds het uitgangspunt is geweest van het neoliberalisme in de afgelopen vijfenveertig jaar en langer).

M.J.
05-01-2024, 07:52 door Anoniem
Dus binnenkort standaard een stem vervormer voor al je telefoon gesprekken, ben benieuwd of er al op de stem(Guus Verstraete jr. †) van Robin (B&A) is getraind.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.