image

AP ziet privacyrisico's door toenemend gebruik AI en algoritmes op werkvloer

zondag 14 april 2024, 09:09 door Redactie, 11 reacties

Steeds meer bedrijven en organisaties gebruiken of experimenteren met algoritmes en artificiële intelligentie (AI) op de werkvloer, wat grote privacyrisico's met zich kan meebrengen, zo waarschuwt de Autoriteit Persoonsgegevens (AP). Zo worden AI en algoritmes ingezet om werkprocessen te verbeteren, de productie te verhogen of de werving en selectie van potentiële nieuwe medewerkers te vergemakkelijken.

"Het gebruik van algoritmes in het sollicitatieproces (pre-employment screening) kan leiden tot discriminatie en profilering. Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid", aldus de AP. De toezichthouder voegt toe dat sollicitanten of werknemers meestal niet weten dat er algoritmes worden gebruikt. "Dit schuurt onder andere met het recht op informatie en het recht om niet onderworpen te worden aan geautomatiseerde individuele besluitvorming."

De Autoriteit Persoonsgegevens merkt verder op dat als organisaties sollicitanten screenen hun persoonsgegevens worden verwerkt en dan de AVG van toepassing is. "Als werkgever bent u er verantwoordelijk voor dat screening aan alle eisen van de AVG voldoet." Tevens adviseert de privacytoezichthouder aan organisaties om zich af te vragen of het gebruik van AI of een algoritme in bestaande werkprocessen noodzakelijk is. Wanneer er wordt besloten een algoritme voor het sollicitatieproces in te zetten moet worden gecontroleerd of het algoritme inhoudelijk is getoetst, vooral op non-discriminatoire en AVG-aspecten.

Reacties (11)
14-04-2024, 09:51 door Anoniem
Wanneer er wordt besloten een algoritme [...] in te zetten moet worden gecontroleerd of het algoritme inhoudelijk is getoetst, vooral op non-discriminatoire en AVG-aspecten.

vs

Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid

Leg uit:
Hoe kun je dan de inhoud goed controleren of toetsen?
Zijn de personen die die controles en toetsen uitvoeren niet ook (onbewust) vooringenomen?

Catch-22
14-04-2024, 10:33 door karma4 - Bijgewerkt: 14-04-2024, 10:39
De Autoriteit Persoonsgegevens merkt verder op dat als organisaties sollicitanten screenen hun persoonsgegevens worden verwerkt en dan de AVG van toepassing is.
Dat screenen wordt gewoonlijk door mensen gedaan. De ontwikkeling nu is inzet van AI door werkzoekenden om die screening te bespelen. Zomaar een link: https://bestonlineresume.com/
Processen verbeteren met machines is iets van alle tijd. De lopende band wordt vervangen door zichzelf verplaatsende objecten. https://interestingengineering.com/innovation/apollo-join-mercedes-benz-assembly-line
Zeer zorgelijk de onkunde van de AP op het vlak van AI.

Door Anoniem:
Leg uit:
Hoe kun je dan de inhoud goed controleren of toetsen?
Zijn de personen die die controles en toetsen uitvoeren niet ook (onbewust) vooringenomen?
Catch-22
Die is vrij simpel, machine learning leert van wat mensen hebben aangegeven wat correct zou zijn.
De vooringenomenheid in wat eerder door mensen als correct wer gezien komt zo terug in wat er geleerd is.
Je moet je afvragen:
- of hetgeen een machine doet niet beter is dan wat een mens zou doen
- Wat het uiteindelijke ideaal is en of dat ideaal (menselijk) niet zelf een foute bias betreft.
Het ultieme geljikheidsdenken kan volledig fout gaan in persoonlijke ernstige beschadigingen door discriminatie.
14-04-2024, 12:03 door Anoniem
Ja geloof maar wat er gebeurt als A.I. door 'wokies' wordt ingeregeld.

Heeft daar nou niemand eens bij stilgestaan, dat er een zekere agenda achter schuilt of kan schuilen?

Of hebben we allemaal de houding van, wat mij verteld wordt geloof ik onvoorwaardelijk,
want .... (en vul dan maar in).
14-04-2024, 18:09 door Briolet
"Het gebruik van algoritmes in het sollicitatieproces (pre-employment screening) kan leiden tot discriminatie en profilering. Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid",

Dit is een beetje een kromme redenering. Als mensen de screening doen is dat nog minder transparant, want daar wordt de keuze in onnavolgbare hersenprocessen bepaald. En als je mensen de selectie op basis van een protocol laat doen, kun je dat protocol ook door AI laten uitvoeren. Alsof mensen niet vooringenomen zijn.
14-04-2024, 18:36 door Anoniem
Door Briolet:
"Het gebruik van algoritmes in het sollicitatieproces (pre-employment screening) kan leiden tot discriminatie en profilering. Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid",

Dit is een beetje een kromme redenering. Als mensen de screening doen is dat nog minder transparant, want daar wordt de keuze in onnavolgbare hersenprocessen bepaald. En als je mensen de selectie op basis van een protocol laat doen, kun je dat protocol ook door AI laten uitvoeren. Alsof mensen niet vooringenomen zijn.

Er bestaan kwaadaardige mensen, en er bestaat kwaadaardig AI. Het onderscheid wordt alleen steeds kleiner, op het niveau van de overheid.
14-04-2024, 19:27 door Anoniem
A.I. kan fascinerend zijn of lijken.
Vroeger had men vertrouwen in het orakel van Delphi
of las men de toekomst uit omen.

Nu hebben we een verbindend A.I. Voor wie?
Net als elke tool kan het zegen of vloek worden.

luntrus
14-04-2024, 19:29 door Anoniem
Boeing heeft het niet kunnen redden.
Unilever niet in Rotterdam gehouden, etc. etc.
14-04-2024, 20:25 door Anoniem
Door Anoniem:
Wanneer er wordt besloten een algoritme [...] in te zetten moet worden gecontroleerd of het algoritme inhoudelijk is getoetst, vooral op non-discriminatoire en AVG-aspecten.

vs

Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid

Leg uit:
Hoe kun je dan de inhoud goed controleren of toetsen?
Zijn de personen die die controles en toetsen uitvoeren niet ook (onbewust) vooringenomen?

Catch-22

Een algorithme dat geen uitleg kan geven is dus fout...
We geven mensen ook les / opleiding en die kunnen ook uitleggen waarom ze iets doen.
( de uitleg kan dan ook getoetst worden ... En iemand die de zaak dan bij elkaar liegt valt ook door de mand)
Zonder mogelijkheid van uitleg is er sprake van willekeur.
14-04-2024, 21:07 door Anoniem
Door Anoniem:
Door Anoniem:
Wanneer er wordt besloten een algoritme [...] in te zetten moet worden gecontroleerd of het algoritme inhoudelijk is getoetst, vooral op non-discriminatoire en AVG-aspecten.

vs

Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid

Leg uit:
Hoe kun je dan de inhoud goed controleren of toetsen?
Zijn de personen die die controles en toetsen uitvoeren niet ook (onbewust) vooringenomen?

Catch-22

Een algorithme dat geen uitleg kan geven is dus fout...
We geven mensen ook les / opleiding en die kunnen ook uitleggen waarom ze iets doen.
( de uitleg kan dan ook getoetst worden ... En iemand die de zaak dan bij elkaar liegt valt ook door de mand)
Zonder mogelijkheid van uitleg is er sprake van willekeur.

Ik geef ook wel eens mensen les. Mensen die kunnen uitleggen waarom ze iets doen, kunnen niet altijd de gevolgen van hun handelen overzien. Eichmann speelde ook maar wat met treintjes en dienstregelingen.

Er zijn hele venijnige algoritme. Zulke algoritmes zijn uit te leggen, als je het principe van verbinding, en mensen snapt. Mensen blijven elkaar kwaad aandoen, sommige met wet- en regelgeving wapperend in de hand. Willekeurig slachtoffers maken, is een machtsmiddel, een krachtig wapen, als dat in handen van verkeerde ambtenaren valt, dan is er veel mis in een samenleving die via internet aan elkaar moet hangen.
15-04-2024, 08:26 door MaarWatIsJePunt
Door Briolet:
"Het gebruik van algoritmes in het sollicitatieproces (pre-employment screening) kan leiden tot discriminatie en profilering. Algoritmes en AI-toepassingen zijn vaak niet transparant en accuraat, wat bijvoorbeeld het risico met zich meebrengt van vooringenomenheid",

Dit is een beetje een kromme redenering. Als mensen de screening doen is dat nog minder transparant, want daar wordt de keuze in onnavolgbare hersenprocessen bepaald. [...] Alsof mensen niet vooringenomen zijn.

Het punt is niet zozeer dat mensen niet vooringenomen zijn, maar mensen kun je ten minste bevragen en in twijfel trekken. Wanneer we een ondoorzichtig, zelf-lerend systeem neerzetten is dat lastiger. De ervaring leert dat bedrijven en gebruikers graag naar het systeem kijken en het domweg opvolgen alsof het altijd de beste, neutrale keuze uitspuugt (want we vertrouwen dat de programmeurs het wel het beste uitgedacht hebben).
Ook neemt niemand de verantwoordelijkheid voor een uitkomst "want het systeem zei dat het zo moest zijn". Dit is problematisch voor burgers omdat je heel snel een kafkaësk systeem opzet.

Dit betekent niet dat het onmogelijk is om goed met AI en dergelijke technologie om te gaan, maar het risico dat het misgaat is groot doordat de partijen die het inzetten niet goed rekening houden met deze valkuilen. Vandaar dus ook dat de AP een waarschuwing publiceert.

En als je mensen de selectie op basis van een protocol laat doen, kun je dat protocol ook door AI laten uitvoeren.
Als het protocol echt zo strict en helder was, zouden we inderdaad een algoritme kunnen schrijven wat de stappen kan doorlopen (daar is dan niet eens AI voor nodig). Maar er is echt nog wat menselijk vermogen nodig voor het maken van inschattingen en redeneren over opgehaalde informatie.
Zeker in een situatie waar je afhankelijk bent van een ander (bijvoorbeeld tijdens een solicitatie), heb je als mens recht om een beter onderbouwd antwoord te krijgen dan "computer says no". Hieraan kan AI (tot nu toe) vaak niet voldoen.
17-04-2024, 09:07 door karma4 - Bijgewerkt: 17-04-2024, 09:14
Door Anoniem:
Een algorithme dat geen uitleg kan geven is dus fout...
We geven mensen ook les / opleiding en die kunnen ook uitleggen waarom ze iets doen.
( de uitleg kan dan ook getoetst worden ... En iemand die de zaak dan bij elkaar liegt valt ook door de mand)
Zonder mogelijkheid van uitleg is er sprake van willekeur.

De AP kan geen inhoudelike uitleg geven over algoritmes ze begrijpen het niet.
Dus inderdaad willekeur en een zeer slechte zaak


Door MaarWatIsJePunt: ....
1/ De ervaring leert dat bedrijven en gebruikers graag naar het systeem kijken en het domweg opvolgen alsof het altijd de beste, neutrale keuze uitspuugt (want we vertrouwen dat de programmeurs het wel het beste uitgedacht hebben).
Ook neemt niemand de verantwoordelijkheid voor een uitkomst "want het systeem zei dat het zo moest zijn". Dit is problematisch voor burgers omdat je heel snel een kafkaësk systeem opzet. ....
2/.... Hieraan kan AI (tot nu toe) vaak niet voldoen.

Wat het eerste betreft je beschrijft niet wat de techniek doet maar wat de menselijke hierarchy met macht veroorzaakt. Dit is zo oud als de weg naar Rome,
Wat het tweede betreft juist AI kan loskomen van de menselijke zwakheden waar de oorzaak ligt.

Probeer maar eens harder te lopen dan wat met een aut mogelijk is, gaat je niet lukken.
Probeer maar eens druk verkeer in de gaten te houden met fout gedrag, gaat je niet lukken, Met tech lukt dat wel
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.