image

Autoriteit Persoonsgegevens gaat toezien op AI en algoritmes

maandag 17 februari 2020, 09:26 door Redactie, 8 reacties

De Autoriteit Persoonsgegevens gaat toezien op het gebruik van kunstmatige intelligentie (AI) en algoritmes waarbij persoonsgegevens worden gebruikt. Volgens de toezichthouder bieden algoritmes veel kansen, maar kleven er ook serieuze risico's aan.

"In een democratische rechtsstaat heb je bijvoorbeeld recht op een begrijpelijke motivering voor een voor jou nadelige beslissing. Anders kun je je niet verdedigen en kan een rechter dat niet toetsen. Daarom is transparantie zo cruciaal", zegt AP-voorzitter Aleid Wolfsen. Wanneer algoritmes persoonsgegevens verwerken gelden er verschillende basisvoorwaarden.

Zo moet er een grondslag zijn voor de verwerking van gegevens, mogen gegevens die voor het ene doel worden verwerkt niet voor een ander doel worden gebruikt en gelden er afhankelijk van het type persoonsgegevens normen rond de opslag en beveiliging. Tevens is bij het gebruik van algoritmes een Data Protection Impact Assessment (DPIA) veelal verplicht. De verwerkingsverantwoordelijke moet dan het effect van de gegevensverwerking op de bescherming van persoonsgegevens uitvoeren.

In de DPIA moet de verwerkingsverantwoordelijke onderbouwen waarom hij bepaalde gegevens gebruikt in een algoritme, wat het doel van het gebruik van een algoritme is en waarom het nodig is te werken met dat algoritme. Wanneer deze risico's onvoldoende kunnen worden weggenomen moet er voorafgaand advies bij de Autoriteit Persoonsgegevens worden gevraagd.

De komende periode zal de toezichthouder zich richten op het verder uitwerken van haar toezicht op AI en algoritmes waarin persoonsgegevens worden gebruikt. Daarbij zal de autoriteit samenwerken met andere relevante partijen binnen en buiten Nederland.

Reacties (8)
17-02-2020, 09:29 door Anoniem
Maar zodra er commerciële of politieke belangen in het spel zijn geven ze niet thuis. Ik voel me zo beschermd nu.
17-02-2020, 10:25 door karma4
een ben benieuwd naar de analyse van het AP van de algoritmes in een ANPR snelheidscamera.
Dat is allemaal onbegrjjpelijke niet uit te leggen techniek in zo'n apparaat. Die boetes zijn zeer selectief met een bias naar bepaalde autotypes, dat moet wel een ingebouwd discriminerend iets zijn.

De werkelijk functie van een "algoritme" dan wel werkinstructie is iets met een wettelijke dienst dan wel overeenkomst.
Het is veel beter naar die achtergronden te gaan kijken dan verzanden in een tussenstap van statische wiskundige berekeningen. Met deze formulering van een algoritme om uit te leggen stel het AP zeg boven de wetgever. Dat is niet goed.
17-02-2020, 10:44 door Bitje-scheef
Ehh... ze hebben nu al geen "tijd". Over 2 jaar is dit gelijk aan onze departement Belastingdienst. Door de politiek volgestopt met de meest vreemde bijzaken en achteraf concluderen dat de dienst het niet aankon.

Dus krijgen we overspannen managers die toeslagen maar eens een een duw gaven.

AI is veelomvattend en staat eigenlijk nog in de kinderschoenen, al vind ik het indrukwekkend wat je er allemaal al mee kunt.
17-02-2020, 14:28 door Anoniem
Compliment voor de AP

Graag dan ook een uitgebreid openbaar rapport over campings, recreatieterreinen, industrieterreinen, parkeergarages, gemeenten, overheden etc ... daar draaien een aantal systemen die niet helemaal 'zuiver' zijn .

En ook graag de Hidden Agenda's van gemeenten & overheid publiceren ...
(zoals het stiekeme drone-toezicht voor handhaving etc... burgers verbieden te vliegen en handhavers iederen laten bespioneren.)
(plus de inzet van militair spul ...)

+overig

Het gevaar komt niet alleen uit je isra-punt maar ook van boven .
17-02-2020, 15:00 door Anoniem
Namens wie wil de AP inzake de neiging het steeds verder leunen door PR machinaties op "vooraf ingestelde serieel repeterende selectie mechanismen" nou de handjes vasthouden of op de rug gaan binden?
Deze stap lijkt sterk erop dat de AP vanuit een enigszins terechte problematisering van AI.
Daar waar inzet van AI feitelijk een afdwaling en overdrijving is van wat IT werkelijk aan kansen kan bieden ziet het AP kennelijk haar kans schoon om haar bestaansrecht tot in het oneindige te vestigen.
Namelijk door haar organisatie op de problemen in te richten.
Zie voor de achtergronden van dit soort klassieke mechanismen o.a. de werken van Clay Shirky.

Dat on-bewustzijn bij de overdreven heil van AI moeten organisaties zelf doorzien en doorprikken.
Als je daar als "autoriteit" als een AP verplichtingen voor gaat opleggen maar tegelijk via andere schijven van de overheid maar haast met invoering van 5G onzin blijft houden en uitoefenen dan blijven de verplichting-stappen van de "autoriteit" op z'n best een doorwuif karakter houden.
17-02-2020, 21:21 door Anoniem
We laten hier de AP voorzitter Aleid Wolfsen en NRC redacteur Marjoleine de Vos het beste zelf aan het woord:

https://www.nrc.nl/nieuws/2020/02/16/je-mag-weten-waarom-de-bank-nee-zegt-a3990640

Een algoritme op zich is niet meer dan een stappenplan om tot een bepaalde beslissing te komen. Het punt is dat dit stappenplan steeds vaker geautomatiseerd wordt doorlopen. Een vliegtuig bijvoorbeeld is een vliegend algoritme, dat op de automatische piloot kan landen. Dat is alleen maar mooi. Maar als algoritmes worden gebruikt om onderscheid te maken tussen mensen, dan is het wel belangrijk om te weten welk stappenplan daarbij wordt gevolgd. Verloopt dat proces wel eerlijk? Hypotheekverstrekkers gebruiken tegenwoordig algoritmes om te bepalen wie er een hypotheek krijgt. De overheid gebruikt ze om mensen te selecteren voor een nadere controle.

...

Als je een toeslag aanvraagt bij de overheid en die wordt geweigerd, dan moet je wel kunnen achterhalen waarom dat gebeurt. Hetzelfde geldt voor een hypotheek, of een baan in een sollicitatieprocedure. Je moet je kunnen verdedigen tegen zo’n beslissing en een rechter moet het kunnen toetsen. Als dat niet kan, omdat de werking van het algoritme onbekend is, dan is dat het begin van het einde van de rechtsstaat. Dan sta je als burger machteloos en ben je rechteloos.

https://www.nrc.nl/nieuws/2020/02/17/een-algoritme-kent-ons-nooit-echt-a3990637

Zou het nu echt waar zijn wat Yuval Noah Harari zegt, dat het ‘straks’ of ‘binnenkort’ niet meer nodig is om voor een sollicitatie een brief te schrijven of een gesprek te voeren, dat kunstmatige intelligentie met behulp van algoritmes uitzoekt wie de geschikte man of vrouw is voor de baan? Op grond van het gedrag op sociale media, de tijdlijn op Facebook, surfgedrag, schooldiploma’s en cv zou de sollicitatieprocedure ‘veel efficiënter’ verlopen.

Ik kan het nauwelijks geloven. Ik wil het ook helemaal niet geloven. Niemand weet precies wat gedrag op sociale media betekent of wat het zegt over offline gedrag. Iemand die geen behoefte heeft om sociale media bij te houden kan toch een rijk sociaal en intellectueel leven hebben, of thuis de vakliteratuur goed bijhouden. En hoezo zou je een toekomstige medewerker niet meer hoeven zien?

Nog los daarvan: wie heeft dan van tevoren precies vastgesteld wat en hoe iemand moet zijn om geschikt te zijn voor het werk? Zonder die gegevens kunnen algoritmes ook niets. Mensen hebben vaak onverwachte kwaliteiten die ze nu juist tot een aanwinst maken, maar het onverwachte gooit nooit hoge ogen in zo’n met vaste verwachtingen volgepropt algoritme.
18-02-2020, 02:12 door Anoniem
De AP zou in deze meer de mogelijkheden van comply meer willen promoten dan de explain principes.

Ze bepaalde kennelijk voor zichzelf dat het denken in "we MOETEN wel steunen op Algoritmes en KI" als exponent van met je tijd meegaan soms misschien ondoorzichtig werkt.
Deze fenomenen betreffen in de basis gewoon repeterende voorgeprogrammeerde keuzes - o.w.b.a. als algoritmes.
Ook denken organisaties die er gebruik van maken, al dan niet ingefluisterd door priming, kennelijk dat je ergens in de toekomst meer waarde kan toedichten aan uitkomsten op basis van repeterende voorgeprogrammeerde keuzes - o.w.b.a. als kunstmatige intelligentie.
Je kan er heel interessant over praten, maar het is toch vrij gekunsteld denken van organisaties.
IT doet enkel pas iets en enkel op voorgepromagreerde wijze NAdat of op basis dat iemand daartoe een signaal geeft.
Als je dan menselijke kwaliteiten aan IT zou willen toedichten dan kan je dat vooral slaafsheid noemen.
Dat heeft meer met aangenomen houding dan met mate of type intelligentie te maken!
Dat kunstmatig toch als intelligentie willen zien is jezelf en anderen met begripsverwarring op een dwaalspoor zetten.

De mythes die om repeterende keuzes en processen door IT zijn opgetuigd zijn ook wel voor een deel van het eigen werk van bestuurders/besluitvormers die daar belang aan gingen toekennen.
Machines zeuren niet, lekker handig.
Ze hebben echter kennelijk onvoldoende door welke lege huls ze mee bezig zijn.

Terecht stelt de AP dat daar dus risicovolle gevolgen uit voortvloeien.
Ja, de effecten van Algoritmes en KI zijn zwaar onderbelicht.
Maar de AP moet de lege huls doorprikken.
Het veld van risico's qua functioneren van dit soort IT is voor veel politici en bestuurder echt geen duidelijke en eenduidig gestructureerde.
Verwacht de AP nou dat alle organisaties naast een AVG aanspreekpunt ook een Algoritmes en KI aanspreekpunt aanstellen als ze iets met Algoritmes of KI. doen?
De effecten van Algoritmes en KI. blijven zo eerder met een sluier van valse hoop / bepaalde zweem omgeven.
Dat vertroebeld inherent en verhindert dus een goed inzicht en bewustzijn in de risico's.
Het blijft dan eerder een grote onbekende c.q. een papieren of schijn-tijger die zich ergens in een kamer van hun kantoor bevindt.

De AP moet zich dus juist meer op het schisma van risico's - onzekerheid richten rondom Algoritmes en KI.
Daar kan de AP als het goed meer invloed op richten.
En de bestuurders/besluitvormers met hun hele organisatie hebben daarin ook een rechtstreeksere invloed op het wegdromen / verschuilen achter dat er een glitch was of dat Algoritmes en KI toch iets ongewenst deden.

Werk en begin aan de bron/oorzaak niet bij de effecten beste AP.
En dat is het schisma dat meer Algoritmes en KI onduidelijke / ongrijpbare situaties kan opleveren.
Hopelijk is de AP al wel een grote kenner van de risico's die er kunnen ontstaan.
En hopelijk weet de AP al dat welke risico's per organisatie / omgeving gaan opduiken absoluut een zekerheid is.
Dan kan ze met kennis en inzicht vanuit geloofwaardigheid aan het bewustzijn bij automatisering werken in plaats van de politie uithangen.
En dat dan ook richting afwikkelen met zaken tegens fabrikanten / leveranciers.
Het kan niet zijn dat een beginnend autoriteit wel alvast is gaan denken dat er in gevallen onzinnige inzet van niet-passende IT-middelen iets opgehelderd kan worden.
Wolken zijn en blijven doorgaans wazig, ga dus niet die wolken bestuderen maar het sterk waarde aan de wolken!
24-02-2020, 13:15 door Anoniem
Ooit (jaren 90) liep Nederland voorop mbt AI, nu hopeloos achter. Wat is er in die tussentijd mis gegaan?

Toen: In NL maakten we oa AI die feilloos OCR/ICR deed over handgeschreven teksten, nu: bakken we er niets meer van.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.