image

Fitnessketen zet camera’s in die gezondheidsproblemen en agressie detecteren, mag dat wel?

woensdag 6 maart 2024, 12:35 door Arnoud Engelfriet, 15 reacties

Heb jij een interessante vraag op het snijvlak van privacy, cybersecurity en recht? Stuur je vraag naar juridischevraag@security.nl. Elke week geeft ict-jurist Arnoud Engelfriet in deze rubriek antwoord.

Juridische vraag: Fitnessketen Basic-Fit zet AI-gestuurde ‘slimme camera’s’ en sensoren in om agressie, ongeautoriseerde toegang, gezondheidsproblemen, zoals flauwvallen, en andere incidenten te herkennen. Dat meldde Security.nl onlangs. Volgens mij mag dit helemaal niet van de AVG, biometrie en gezondheidsgegevens. En de AI Act zal dit ook gaan verbieden. Toch?

Antwoord: Het nieuws was ook voor mij opmerkelijk. Ik had altijd gedacht dat men met camera's werkte gekoppeld aan een centrale meldkamer, die dan mensen langsstuurt als ze wat geks zien gebeuren. Maar dat werkt dus nu met AI. Het is moeilijk op de Axis-site een uitleg te geven die niet leest als een ChatGPT tekst, maar bij deze:

Smart cameras that are used for their sensory-like functions and remote control mechanisms are deployed in each gym. The various Axis products work together with a specifically designed AI algorithm to quickly detect and address issues on site, while also enabling gyms to operate 24 hours a day. Gym members can therefore feel safe, even when there is no staff around. In case of need or an emergency, a specially designed remote control room can be contacted from the Basic-Fit location. From there health concerns, aggression, fraud, and even foot traffic is monitored.

De kern is dus “slimme camera’s” die aan emotieherkenning doen, en op basis daarvan alarmpjes geven aan een menselijk toezichthouder. En dat gaf mij dan weer een alarmpje, want ‘emotieherkenning’ is zeg maar een dingetje onder de AI Act die binnenkort van kracht wordt.

Emotieherkenning is een van de controversieelste toepassingen van AI/ML. Het idee is dat je door analyse van uiterlijke kenmerken kunt vaststellen hoe iemand zich voelt – plus dat je dat kunt terugbrengen tot een serie labels zoals vreugde, woede, angst, walging, minachting, verdriet en verrassing. Voor geen van deze twee dingen is wetenschappelijke consensus, maar door het in een computer te stoppen en die “AI” te noemen creëert men een sfeer dat dit een opgelost probleem is. Dus als de AI zegt dat persoon A “woedend” is, dan gaat er een bewaker naar de locatie om persoon A de-escalerend aan te spreken en te verwijderen.

Mag het van de AVG? Op dit moment wel. De AVG regelt het een en ander over cameratoezicht (zie het reglement), en bevat daarnaast regels over profileren en automatische besluitvorming. Maar wat hier gebeurt, is nog geen besluitvorming. De AI stuurt er een mens op af, waarna de mens op locatie het besluit neemt (“oh nee, hij was stoom aan het afblazen omdat hij leg day niet ziet zitten”). De analyse wordt verder niet aan je klantprofiel gekoppeld en er wordt verder ook niets mee gedaan. AVG-technisch lijkt dit dus wel in orde vanuit de grondslag eigen belang (beveiliging/bescherming bezoekers).

De AI Act kijkt er wat anders tegenaan. Het is niet verboden – het verbod op emotieherkenning geldt alleen bij gebruik op het werk of in het onderwijs. Bij vrij sporten zoals hier, is dat niet aan de orde (de trainers/werknemers worden hier niet mee gemonitord). Het is wel een hoog-risico AI (artikel 1(ab) van Annex III), dus het triggert een berg eisen zoals een risicomanagementsysteem, uitgebreide logging, adequaat menselijk toezicht en marktmonitoring op incidenten.

De AI Act is nog niet formeel aangenomen (verwachting: april) dus het is niet raar dat Axis nog niets zegt over hoe ze aan de wet voldoet. Daar hebben ze net als iedereen nog (slechts) twee jaar voor, want op dat moment moeten alle aspecten opgezet zijn. En dat is minder tijd dan je denkt.

Een bijkomstigheid: op de Axis-pagina zie ik diverse producten zoals een domecamera of een intercom. Ik weet zeker dat daar het bekende CE-logo op zit. Vanaf het moment dat de AI Act van kracht is, gaat dat logo óók betekenen dat het systeem aan die wet voldoet. Het is nog even de vraag of een CE logo op een losse camera moet worden opgevat als CE markering van het gehele systeem.

Arnoud Engelfriet is Ict-jurist, gespecialiseerd in internetrecht waar hij zich al sinds 1993 mee bezighoudt. Hij werkt als partner bij juridisch adviesbureau ICTRecht. Zijn site Ius mentis is één van de meest uitgebreide sites van Nederland over internetrecht, techniek en intellectueel eigendom. Hij schreef twee boeken, De wet op internet en Security: Deskundig en praktisch juridisch advies.

Reacties (15)
06-03-2024, 13:17 door Anoniem
Op deze manier krijg je schijnveiligheid. En mensen gaan steeds aggresiever reageren als ze zich in moeten houden. Zo werkt dat nu eenmaal. Als je toch al "slecht" bent kan je er beter helemaal voor gaan toch?

Als je het gevoel hebt dat er niemand kijkt sta je oog in oog met je eigen geweten, en ga je veel sneller nadenken over je acties. Als je het gevoel hebt dat er altijd iemand meekijkt, is dat helemaal anders omdat iemand anders jou ten allen tijde beoordeelt. In geval van een uitbarsting gaat deze veel zwaarder zijn omdat een persoon voor een langere tijd zich heeft ingehouden.
06-03-2024, 13:34 door Anoniem
Door Arnoud Engelfriet: [...] het verbod op emotieherkenning geldt alleen bij gebruik op het werk of in het onderwijs. Bij vrij sporten zoals hier, is dat niet aan de orde (de trainers/werknemers worden hier niet mee gemonitord).

Dat is onjuist. Zodra een de trainer of werknemer zich op de werkvloer begeeft, wordt deze ook immers ook door de AI-camera's gemonitord. Daarmee kan bijvoorbeeld worden vastgesteld hoe de klant wordt bejegend, en op welk tijdstip.
06-03-2024, 14:28 door Anoniem
Ik ben Functionaris Gegevensbescherming van Basic-Fit en deze uiteenzetting van zaken klopt niet. Jammer dat men niet het camerabeleid van Basic-Fit eerst even doorgelezen heeft. De op AI gebaseerde sensoren zijn wel degelijk gekoppeld aan een Centrale Meldkamer en deze is hiervoor volledig gecertificeerd. Er is geen sprake van emotieherkenning of verwerking van biometrische gegevens. Het gaat simpelweg om detectie van decibellen/geluidspatronen die bij ernstige agressie passen en het kunnen detecteren wanneer een persoon echt onwel wordt, te lang blijft liggen en alleen in een ruimte is. Het gaat dus niet om een ruzietje of iemand die zich niet zo lekker voelt, maar echt om noodgevallen. De AI is niet gebaseerd op herleidbare persoonsgegevens of biometrische gegevens, maar op geluids- en bewegingssensoren. Verder hangen er ook 'paniek knoppen' in de clubs waarmee onze leden direct contact op kunnen nemen met de meldkamer in geval van nood.
06-03-2024, 17:43 door Anoniem
Door Anoniem: Ik ben Functionaris Gegevensbescherming van Basic-Fit en deze uiteenzetting van zaken klopt niet. Jammer dat men niet het camerabeleid van Basic-Fit eerst even doorgelezen heeft. De op AI gebaseerde sensoren zijn wel degelijk gekoppeld aan een Centrale Meldkamer en deze is hiervoor volledig gecertificeerd. Er is geen sprake van emotieherkenning of verwerking van biometrische gegevens. Het gaat simpelweg om detectie van decibellen/geluidspatronen die bij ernstige agressie passen en het kunnen detecteren wanneer een persoon echt onwel wordt, te lang blijft liggen en alleen in een ruimte is. Het gaat dus niet om een ruzietje of iemand die zich niet zo lekker voelt, maar echt om noodgevallen. De AI is niet gebaseerd op herleidbare persoonsgegevens of biometrische gegevens, maar op geluids- en bewegingssensoren. Verder hangen er ook 'paniek knoppen' in de clubs waarmee onze leden direct contact op kunnen nemen met de meldkamer in geval van nood.

Wat een toestanden daar bij Basic-Fit.
Lijkt me niet echt gezellig om daar te sporten.
07-03-2024, 08:20 door karma4
Vreemde toestanden om van alles te willen verbieden waar techniek bij zit.
Een hartbewakingssysteem is voor de alarmering volledig afhankelijk van AI. Moeten we maar mensen dood laten gaan om dat de techniek er wel is maar de angst voor techniek het beschermen van levens in de weg staat?
07-03-2024, 08:51 door Anoniem
Door karma4: Vreemde toestanden om van alles te willen verbieden waar techniek bij zit.
Een hartbewakingssysteem is voor de alarmering volledig afhankelijk van AI. Moeten we maar mensen dood laten gaan om dat de techniek er wel is maar de angst voor techniek het beschermen van levens in de weg staat?

Hartbewaking is een noodzakelijk medisch instrument.
Dat er bij Basic-Fit zoveel misgaat, tot agressie aan toe, dat er cameratoezicht nodig is, dat is een ongezellige toestand. Vind ik.
07-03-2024, 08:54 door Anoniem
Door karma4: Vreemde toestanden om van alles te willen verbieden waar techniek bij zit.
Een hartbewakingssysteem is voor de alarmering volledig afhankelijk van AI. Moeten we maar mensen dood laten gaan om dat de techniek er wel is maar de angst voor techniek het beschermen van levens in de weg staat?
Een hartbewaking is gericht op het hart van 1 persoon. Een camera is gericht op alles.
Hoef denk ik niet uit te leggen wat het verschil tussen 1 en meerdere is.
07-03-2024, 09:51 door Anoniem
Als iemand laat in de avond in het fitness centrum van zijn fiets af kiept of ruzie krijgt met iemand die hem/haar met een halter begint te slaan, dan mogen er nog zoveel camera's zijn en die mogen dan nog zo slim zijn; het slachtoffer wordt dan gewoon aan zijn lot overgelaten omdat er niet acuut ingegrepen kan worden. Dus het wordt er juist helemaal niet veiliger door. Het lijkt een beetje op een ambulance met personeel vervangen door een zelfrijdende Tesla, waarbij het slachtoffer zichzelf in kritieke toestand zelf maar moet helpen totdat de Telsa bij de eerste hulp is gearriveerd.

Wat wel veilig zou zijn is voldoende bezetting met toezichthoudend personeel, die kunnen wel direct ingrijpen namelijk.
07-03-2024, 10:19 door Anoniem
Door Anoniem:
Wat een toestanden daar bij Basic-Fit.
Lijkt me niet echt gezellig om daar te sporten.

Toen Basic-Fit destijds de bestaande keten van Achmea Health Centers overnam, was het eerste wat Basic-Fit deed: het personeel en de trainers ontslaan, de gezellige koffiebar opheffen, en bij ingang een foeilijke stalen, metershoge turnstile plaatsen. Een tourniquet waar de sporters met tassen zich doorheen moeten wurmen. Toen was voor mij de lol er af.
07-03-2024, 11:47 door Anoniem
Door Anoniem: Het gaat simpelweg om detectie van decibellen/geluidspatronen

Voor 50% van de casussen is dus helemaal geen camera nodig, maar gewoon een microfoon die alleen hard geluid oppakt (en niet een gemiddeld gesprek). Oh nee wacht... een geluidssensor (want in de AVG verkappen we nog weleens een camera door die een 'lichtgevoelige sensor' te noemen).

Goed stuk. Interessant dat je ook de nieuwe AI-act er al bij haalt.
Overigens mis je denk ik nog het elementje dat onder de AVG bij dit soort verwerkingen wel heel erg duidelijk moet zijn wat het doel is. Voordat er filmpjes van mooi getrainde dames op het www verschijnen bij Basic Fit.
07-03-2024, 11:50 door Anoniem
Door Anoniem: Het gaat simpelweg om detectie van decibellen/geluidspatronen die bij ernstige agressie passen

Camera's die de geluidspatronen van agressie detecteren en daar op reageren. Dat is een vorm van emotieherkenning.
07-03-2024, 18:42 door Anoniem
In plaats van moeilijke vragen over wat nog mag of niet mag kunnen we misschien ook eens een onderwerp entameren of wat we nog leuk vinden. Of gezellig. Of dat je denkt kom er lekker bij.

Degenen die voor of tegen wetten stemmen, over wat mag of niet meer mag. Dat kun je toch geen gezellige mensen meer noemen?
08-03-2024, 08:01 door Anoniem
Big brother is watching you ! Geen prettig idee als je ontspannen
wil sporten maar voortdurend door AI in gaten wordt gehouden.
Dit blijkt echter een trend te worden, boodschappen doen, sporten,
reizen, voortdurend die AI in je nek. Stressvol. De mensheid zal goed
moeten nadenken of dit the way to go is. Voorlopig boycot ik dit
soort bedrijven als Basic-fit en Jumbo. Van de AP/AVG valt niet veel
te verwachten.
08-03-2024, 11:35 door majortom
Door Anoniem: Big brother is watching you ! Geen prettig idee als je ontspannen
wil sporten maar voortdurend door AI in gaten wordt gehouden.
Dit blijkt echter een trend te worden, boodschappen doen, sporten,
reizen, voortdurend die AI in je nek. Stressvol. De mensheid zal goed
moeten nadenken of dit the way to go is. Voorlopig boycot ik dit
soort bedrijven als Basic-fit en Jumbo. Van de AP/AVG valt niet veel
te verwachten.
In San Fransisco zijn de burgers al zo ver gehersenspoeld dat de meerderheid daar heeft besloten tot een surveillancestad (drones, gezichtsherkenning, etc) https://dronedj.com/2024/03/06/san-fransisco-voters-approve-police-drone-facial-recognition-use/
08-03-2024, 12:34 door Anoniem
Door majortom: In San Fransisco zijn de burgers al zo ver gehersenspoeld dat de meerderheid daar heeft besloten tot een surveillancestad (drones, gezichtsherkenning, etc)

San Francisco stemt voor meer politiesurveillance via drones en camera's
donderdag 7 maart 2024, 12:27 door Redactie

https://www.security.nl/posting/832879/San+Francisco+stemt+voor+meer+politiesurveillance+via+drones+en+camera%27s


Scott McKenzie - 1967 - San Francisco

If you're going to San Francisco
Be sure to wear some flowers in your hair
If you're going to San Francisco
You're gonna meet some gentle people there
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.