Organisaties zetten steeds vaker kunstmatige intelligentie (AI) in voor het herkennen van emoties bij mensen. Daarbij gaat emotieherkenning echter uit van omstreden aannames over emoties en de meetbaarheid daarvan. De inzet van emotieherkenning brengt hierdoor risico's en ethische vragen met zich mee, concludeert de Autoriteit Persoonsgegevens in de nieuwe Rapportage AI & Algoritmes Nederland (RAN).
De AP noemt diverse voorbeelden van de inzet van emotieherkenning. Denk daarbij aan het gebruik van de technologie voor het analyseren van je emotionele toestand tijdens een gesprek met een klantenservice. Denk echter ook aan een smartwatch die meet of je stress hebt, of aan een chatbot die je emoties herkent en op basis daarvan reageert.
De toezichthouder onderzocht de inzet van AI door klantenservices, in wearables en in taalmodellen. De AP concludeert daarbij dat niet altijd duidelijk is hoe AI-systemen emoties herkennen en of de uitkomsten betrouwbaar zijn. Ook weten mensen ondanks de groei van dergelijke toepassingen niet altijd dat emotieherkenning wordt ingezet en op basis van welke data dat gebeurt.
Ook concludeert de AP dat er zeer voorzichtig moet worden omgegaan met dit soort toepassingen. De waakhond wijst onder meer op het risico op discriminatie en inperking van de menselijke autonomie en waardigheid. "Emoties raken sterk aan je menselijke autonomie. Als je emoties wilt herkennen, moet dat dan ook zeer zorgvuldig en op basis van betrouwbare technologie gebeuren. Daar is nu vaak geen sprake van", zegt Aleid Wolfsen, voorzitter van de AP.
De AP wijst er onder meer op dat veel AI-systemen die emoties zeggen te kunnen herkennen gebouwd zijn op basis van omstreden aannames. Biometrische kenmerken zoals stem, gezichtsuitdrukking of hartritme worden hierdoor ongenuanceerd vertaald naar emoties. "Het idee dat een emotie door iedereen op dezelfde manier wordt ervaren, klopt niet. Laat staan dat die emoties meetbaar zijn aan de hand van biometrie", aldus Wolfsen. "Tussen culturen kunnen er grote verschillen zijn in hoe mensen emoties ervaren, uiten en benoemen. Ook tussen individuen kunnen verschillen bestaan, bijvoorbeeld door leeftijd. Verder kun je emoties niet altijd een-op-een vertalen. Een hoge hartslag is immers niet altijd een teken van angst, en een harde stem niet altijd een uitdrukking van woede."
"Het is een ethisch vraagstuk of je als maatschappij het herkennen van emoties met AI toelaatbaar vindt,’ zegt Wolfsen. ‘Daarvoor is een maatschappelijke en democratische afweging nodig: of je deze systemen wilt gebruiken en zo ja, in welke vorm en waarvoor."
Verschillende toepassingen van stemherkenning zullen in de toekomst onder specifieke AI-regelgeving vallen en moeten daarom nu al voldoen aan privacywetgeving, zoals de Algemene verordening gegevensbescherming (AVG). In het onderwijs en op de werkvloer is het gebruik van AI-systemen voor emotieherkenning al verboden volgens de Europese AI-verordening.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.