image

Autoriteit Persoonsgegevens start met algoritmetoezicht

maandag 16 januari 2023, 15:56 door Redactie, 13 reacties

De Autoriteit Persoonsgegevens (AP) houdt vanaf vandaag ook toezicht op algoritmes. Binnen de privacytoezichthouder komt een nieuw organisatieonderdeel: de directie Coördinatie Algoritmes. Het nieuwe toezicht bestaat uit verschillende onderdelen, waaronder het verzamelen en analyseren van signalen over de risico's en gevolgen algoritmegebruik en het delen van kennis daarover.

Verder is het plan om bestaande samenwerkingen bij algoritmetoezicht te versterken en faciliteren. Ook zal de AP in samenwerking met de andere toezichthouders thema’s over algoritmegebruik in kaart brengen en het gezamenlijk uitleggen van juridische normen en kaders over algoritmes ondersteunen. De Autoriteit Persoonsgegevens ontvangt dit jaar 1 miljoen euro voor het algoritmetoezicht, oplopend naar structureel 3,6 miljoen euro in 2026.

"Algoritmes en artificiële intelligentie spelen een steeds grotere rol in ons leven. Dit biedt vele kansen en maakt belangrijke innovaties mogelijk. Maar de dreiging om de mens en de menselijke maat daarbij uit het oog te verliezen, ligt op de loer. Algoritmes kunnen grote impact hebben op mensenlevens en op onze samenleving", zegt AP-voorzitter Aleid Wolfsen.

Het kan dan gaan om zaken of iemand wel of niet een lening krijgt, of iemand aan extra controle wordt onderworpen en of iemand wel of niet wordt uitgenodigd voor een sollicitatiegesprek. "Transparantie over het gebruik van algoritmes is daarom cruciaal om discriminatie en willekeur te voorkomen", stelt Wolfsen verder. In de loop van dit jaar zal de Autoriteit Persoonsgegevens samen met de andere toezichthouders en de betrokken ministeries identificeren wat er verder nodig is om het algoritmetoezicht in Nederland te versterken.

Reacties (13)
16-01-2023, 17:23 door Anoniem
“Algoritmes en artificiële intelligentie spelen een steeds grotere rol in ons leven. Dit biedt vele kansen en maakt belangrijke innovaties mogelijk. “

Lijkt mij een hachelijke zaak dit. Ik vraag me trouwens af in hoeverre ons nu versnipperd in kleine stukjes de AI Act van de EU ons door de strot wordt geduwd?
Bovendien, met al die ai die van alles kan immiteren (gesproken en uitgeschreven tekst) moeten we ons NU afvragen wat advocaten bijvoorbeeld voor waarde hebben nu die nog niet uitgehold is door ai.
Het lijkt mij anderzijds wel interessant als ai op archief kwesties wordt ingezet om advocaten en andere professionals te ontlasten.
16-01-2023, 19:04 door Anoniem
Leuk, die focus op “algoritmen”. Zou er niet meer focus moeten zijn op de mensen die opdracht geven tot het maken daarvan? Het “algoritme” is het gevolg… het probleem ligt bij de oorzaak. De wens om kadertjes te maken waar mensen precies in passen, op privacy net zo tunen dat het net past, op menselijk gedrag te modelleren e.d.

Nergens lees ik dat we aan managementopleidingen en bij architecten, programmeurs, juristen e.d. aan hun kennis en morele en juridische aspecten moeten werken. Daar ligt het euvel… niet bij het product, die paars regeltjes code!
16-01-2023, 20:46 door Anoniem
Lijkt me dat er heel snel normerend over ai moet worden gehandeld zodat niet diverse banen verloren gaan aan ai (zoals futoristen bij het MIT voorspellen).
16-01-2023, 20:53 door Anoniem
Algoritmes zouden per domein nader overwogen moeten worden op algemene toepasbaarheid. Zo laat sociaal maatschappelijke dingen zich lastig langs een meetlat leggen, dus ai in dat domein zou het stempel ongeloofwaardig moeten krijgen.
16-01-2023, 22:01 door Anoniem
Wofsen stelt dat hij in alle algorithmes kan kijken, wie ze ook gebruikt en hoe dan ook.
Dat lijkt me een gewaagde bewering... het zal formeel wellicht het geval zijn, maar in de praktijk...

Bovendien is het tegenwoordig niet meer zo gebruikelijk om (in het soort situaties waar hij het over heeft) het algorithme
specifiek uit te schrijven in een programmeertaal. Er is een of andere engine die input verwerkt maar die beslissingen
neemt niet aan de hand van if-statements in de code maar aan de hand van data die "geleerd" is uit eerdere ervaring.
Dat betekent dat het helemaal niet zo simpel is om de uiteindelijke situatie te analyseren. Je kunt kijken wat het gedrag
is bij bepaalde input, maar je zult heel wat van dat soort tests moeten doen voor je kunt concluderen dat er sprake is
van een bevooroordeeld gedrag. Je gaat echt geen statement "IF afkomst="marrokaan" THEN afwijzen" aantreffen
in de code!
16-01-2023, 22:03 door Anoniem
Door Anoniem:
Bovendien, met al die ai die van alles kan immiteren (gesproken en uitgeschreven tekst) moeten we ons NU afvragen wat advocaten bijvoorbeeld voor waarde hebben nu die nog niet uitgehold is door ai.
Het lijkt mij anderzijds wel interessant als ai op archief kwesties wordt ingezet om advocaten en andere professionals te ontlasten.
Ik denk dat het beroep van advocaat nog wel een tijdje veilig is. Veel eerder zal men het beroep van rechter weten te
vervangen. Advocaten moeten kunnen draaien en liegen, de boel besodemieteren. Rechters moeten een neutrale
afweging maken van de gepresenteerde feiten en tot een onbevooroordeelde conclusie komen. Dat is veel gemakkelijker
te automatiseren, zeker als de te beoordelen personen zelf niets doen om hun groep in een slecht daglicht te stellen.
17-01-2023, 03:12 door Anoniem
Door Anoniem: Leuk, die focus op “algoritmen”. Zou er niet meer focus moeten zijn op de mensen die opdracht geven tot het maken daarvan? Het “algoritme” is het gevolg… het probleem ligt bij de oorzaak. De wens om kadertjes te maken waar mensen precies in passen, op privacy net zo tunen dat het net past, op menselijk gedrag te modelleren e.d.
Het gaat ook om waar die mensen toe in staat zijn met de mogelijkheden die voor het oprapen liggen. Iets wat ze simpelweg niet voor elkaar kunnen krijgen is ook geen probleem. De AVG werd pas nodig toen de mogelijkheden voor grootschalige dataverwerking en -verspreiding er waren, de mensen die al te enthousiast en onverantwoordelijk gebruik maken van die mogelijkheden waren er altijd al.

Nergens lees ik dat we aan managementopleidingen en bij architecten, programmeurs, juristen e.d. aan hun kennis en morele en juridische aspecten moeten werken. Daar ligt het euvel… niet bij het product, die paars regeltjes code!
Ik denk dat het euvel hier is dat jij denkt dat het niet gebeurt omdat het jou toevallig niet is opgevallen.

Toevallig zat ik gisteren in de trein vlakbij een paar studenten die praatten op een geluidsniveau alsof ze een drukke kroeg moesten overstemmen. Ze deden duidelijk een of andere IT-opleiding en hadden het dolenthousiast over allerlei geavanceerde AI-toepassingen. Wat daarbij opviel was dat ze elkaar erop wezen dat toepassingen die ze bedachten niet konden omdat die de AVG schonden. Ik denk niet dat ze zich daar zo van doordrongen zouden zijn als hun opleiding het onderwerp oversloeg.

Aan de andere kant garanderen opleidingen echt niet dat het geleerde ook netjes wordt toegepast; zat mensen passen heel selectief toe wat ze bevalt en "vergeten" een hoop dat ze niet ligt. Ook is er een flinke populatie aan managers, architecten, programmeurs etc. die zijn opgeleid voordat dit soort dingen in hun opleiding zaten.

Omdat niet iedereen het uit zichzelf goed doet, ook niet als je ze opleidt om het goed te doen, is toezicht nodig. En dat toezicht is tandeloos als het werkt zonder enig inzicht in hoe wat er fout gaat dan eigenlijk fout gaat. De toezichthouder kan degenen die niet zijn opgeleid in wat wel en niet door de beugel kan, en degenen die het weer vergeten zijn, niet voorlichten over de situatie zonder er zelf iets van te snappen. Dus is het volkomen terecht voor de AP om met algoritmetoezicht te beginnen.
17-01-2023, 04:56 door Anoniem
Door Anoniem: Wofsen stelt dat hij in alle algorithmes kan kijken, wie ze ook gebruikt en hoe dan ook.
Dat lijkt me een gewaagde bewering... het zal formeel wellicht het geval zijn, maar in de praktijk...
Mis ik iets? Ik zie hem die bewering helemaal niet doen.

Je geeft terecht aan dat wat tegenwoordig met algoritme wordt aangeduid niet meer expliciet in statements is gecodeerd. Het eigenlijke (wel in statements gecodeerde) algoritme is het statistische proces van patronen destilleren uit voorbeelden en het toepassen van die patronen op nieuwe invoer. Wat tegenwoordig (wat mij betreft onterecht [*]) met "algoritme" wordt aangeduid is de vastlegging van het geleerde, en dat is inderdaad vaak voor mensen ondoorgrondelijk. En als degene die het toepassen het al niet kunnen doorgronden gaat het de toezichthouder ook niet lukken.

Maar dat hoeft ook niet om toezicht te kunnen houden. De AVG stelt namelijk eisen aan dat soort verwerkingen. Men moet er om te beginnen transparant over zijn, je moet verteld worden dat het gedaan wordt. Tenminste bij profilering heb je ook recht op nuttige informatie over de onderliggende logica en het belang en de verwachte gevolgen voor jou. Verder heb je er (op een paar uitzonderingen na) recht op dat beslissingen die rechtsgevolgen hebben of je anderszins aanmerkelijk raken niet uitsluitend automatisch worden genomen. De verwerkingsverantwoordelijke is dus verplicht om de beoordeling door een mens over te laten doen als je daarom vraagt. Dat zijn dingen waarop toezicht kan worden gehouden.

Verder bestaat toezicht op algoritmes al bij diverse toezichthouders en inspecties. Dat blijft zo, maar AP gaat dat coördineren.

[*] Een heel simpel, maar desondanks heel effectief machine learning-algoritme dat al heel lang op grote schaal wordt toegepast in spamfilters heet de "naive Bayes classifier". Je kan het makkelijk kennen uit zowel lokaal geïnstalleerde e-mailprogramma's als webmail-clients: je kan bij een mail in je inbox die ten onrechte niet automatisch naar je spam-folder is verplaatst aangeven dat het spam is, en andersom bij mail die ten onrechte automatisch in je spamfolder is gezet aangeven dat het geen spam is. Dat levert on-the-fly een groeiende hoeveelheid trainingsdata op waarmee via een statistisch proces het filter steeds raker e-mails automatisch in spam en "ham" (niet-spam) weet in te delen. Moderne AI-toepassingen doen in wezen net zoiets, alleen dan met veel geavanceerdere en verfijndere algoritmes, en veel complexere uitkomsten dan alleen het onderscheid tussen spam en ham. Maar ondanks die verschillen deelt het belangrijke onvereenkomsten: het leert van voorbeelden, legt die lessen vast in een formaat waar de meeste mensen geen touw aan kunnen vastknopen, en past die lessen toe om automatisch uitkomsten te genereren bij nieuwe invoer. Bij mijn weten heeft niemand ooit de lessen die een "naive Bayes classifier" opslaat (en die van gebruiker tot gebruiker verschillen) met "algoritme" aangeduid, die term gebruik je voor de "naive Bayes classifier" zelf, niet voor de statistische data die het produceert en weer gebruikt om zijn taak te doen. Bij de geavanceerdere ML-systemen die tegenwoordig (ook al twijfelachtig) AI worden genoemd worden opeens de daarbij horende statistische data zelf als algoritme bestempeld, of als centraal onderdeel van het algoritme. Daar ben ik het niet mee eens, al houd ik echt niet tegen dat het gebeurd en heb ik daar rekening mee te houden.
17-01-2023, 10:00 door Anoniem
Door Anoniem:
Door Anoniem: Wofsen stelt dat hij in alle algorithmes kan kijken, wie ze ook gebruikt en hoe dan ook.
Dat lijkt me een gewaagde bewering... het zal formeel wellicht het geval zijn, maar in de praktijk...
Mis ik iets? Ik zie hem die bewering helemaal niet doen.

Ok hierbij het artikel waarin hij daar helemaal los op gaat (aan het einde):
https://nos.nl/artikel/2460123-extra-toezicht-moet-einde-maken-aan-levensgevaarlijke-algoritmes

Je geeft terecht aan dat wat tegenwoordig met algoritme wordt aangeduid niet meer expliciet in statements is gecodeerd.

[*] Een heel simpel, maar desondanks heel effectief machine learning-algoritme dat al heel lang op grote schaal wordt toegepast in spamfilters heet de "naive Bayes classifier".

Volgens mij wordt dit ook vaak ingezet in de context waar het hier over gaat. De reden is dat het in de praktijk zo
goed werkt. Men maakt zich er hardstikke druk over, maar de eigenlijke oorzaak van de problemen ligt niet in het
algorithme maar in de dagelijkse feiten die er ingevoerd zijn. Als bepaalde groepen benadeeld worden dan komt dit
door negatief gedrag wat hun leden zelf in het systeem ingevoerd hebben.
Als je steeds maar geen stageplek of baan kunt krijgen dan is dat wellicht omdat vele voorgangers van jou het steeds
verkloot hebben, en het geduld van werkgevers een keer op raakt. Het probleem is natuurlijk dat hierdoor het individu,
wat er niets aan kan doen, benadeeld wordt door het gedrag van de groep. Maar de beste manier om eruit te komen
is toch door als groep iets te doen aan het negatieve imago.
17-01-2023, 10:15 door majortom - Bijgewerkt: 17-01-2023, 10:17
Door Anoniem:
Door Anoniem: Wofsen stelt dat hij in alle algorithmes kan kijken, wie ze ook gebruikt en hoe dan ook.
Dat lijkt me een gewaagde bewering... het zal formeel wellicht het geval zijn, maar in de praktijk...
Mis ik iets? Ik zie hem die bewering helemaal niet doen.
Hij heeft dit in het NOS Journaal gemeld: https://www.npostart.nl/nos-journaal/16-01-2023/POW_05467360, @~3:00
17-01-2023, 21:50 door Anoniem
De Autoriteit Persoonsgegevens kan direct aan de slag om de neiging van minister van Defensie Ollongren critici tot AVG-rechtelozen te maken door onterecht militair onderzoek via de Wiv 2017 te willen gaan regelen.

Daarbij lijkt ze voor onder andere "‘Het LIMC had eerder moeten worden stilgelegd.’ De commissie concludeert dat voor de trendanalyses door het LIMC van gebeurtenissen rondom COVID-19 ‘de benodigde rechtsbasis (de juridische grondslag)’ ontbrak en daarmee onrechtmatig was. Verder is tijdens de ‘maandenlange afstemming’ over een regeling Militaire Steunverlening in het Openbaar Belang (MSOB) met de NCTV ‘door betrokkenen geen initiatief getoond tot het stilleggen van de lopende activiteiten van het LIMC’"

het volgende in gang te willen zetten:
Met betrekking tot dit eerste advies en ter bevordering van de ontwikkeling en het gebruik van virtuele oefenruimtes om informatiegestuurd optreden te trainen en te oefenen, start Defensie een haalbaarheidsstudie naar gesimuleerd oefenen
voor informatiegestuurd optreden. Een gesimuleerde, afgesloten omgeving heeft als voordeel dat daarvoor met fictieve persoonsgegevens kan worden gewerkt. Daarvoor is geen aparte juridische grondslag nodig en kunnen in principe alle
scenario’s veilig worden gespeeld. De haalbaarheidsstudie zal zich vooral richten op de vraag hoe de oefendoelen bij informatiegestuurd optreden ook in een gesimuleerde omgeving kunnen worden gehaald. Risicobeheersing is hierin een belangrijk uitgangspunt waarbij nauw wordt samengewerkt met juridische adviseurs

Lees ze gaan simulaties uitvoeren. Dat gebeurt met algoritmes en zekere mate van intelligentie op basis van fictieve persoonsgegevens maar is natuurlijk bedoeld voor real life toepassing. Daar komt natuurlijk de AP om de hoek kijken.
18-01-2023, 10:47 door Anoniem
Vandaag wordt in de tweede kamer over AI een ronde tafel gesprek gehouden;

https://www.tweedekamer.nl/debat_en_vergadering/commissievergaderingen/details?id=2022A06924
Er zijn heel wat position papers aangeleverd, ondermeer door Privacy First, Rathenau Instituut, Bits of Freedom, College van rechten van de mens.
19-01-2023, 15:52 door Anoniem
Gaat de AP ook meekijken bij NWO met het zogenoemde ROBUST-programma??
Dat programma is voor overheid begrippen behoorlijk groot, namelijk 25 miljoen euro.
https://www.emerce.nl/nieuws/nwoimpuls-25-miljoen-euro-kunstmatige-intelligentie
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.