Privacy - Wat niemand over je mag weten

AI: identiteit en privacy?

31-01-2022, 09:56 door Erik van Straten, 31 reacties
Laatst bijgewerkt: 31-01-2022, 10:25
Als mij één ding de afgelopen jaren duidelijk is geworden, is dat een mening een identificerende eigenschap is.

(Context voor geïnteresseerden: dit schrijf ik na doordenken na mijn vorige post in https://security.nl/posting/740825).

Bij Artificial Intelligence (KI, Kunstmatige Intelligentie) zou je de output van zo'n systeem een mening kunnen noemen, nl. op basis van de beschikbare "kennis" van (d.w.z. data, gegevens of informatie in) en algoritmes in zo'n systeem.

Net als mensen (en andere levende wezens met hersencellen) van mening kunnen veranderen, in elk geval op basis van nieuwe informatie die zij tot zich nemen (naast door ziektes als dementie of fysieke hersenbeschadiging), kan ook zo'n AI-systeem dus van mening veranderen.

Voorbeeld (wellicht flauw): als je vorig jaar aan de computer van de belastingdienst vroeg of iemand met de voornaam "Ahmed" een grotere kans heeft om zich schuldig te maken aan fraude dan "Jan", was het antwoord "ja" en nu (of binnenkort) wordt dat waarschijnlijk (en, naar mijn mening, hopelijk): "geen idee".

Aan de hand van (ongestuurde) output zou je een AI-systeem wellicht van andere AI-systemen (en/of mensen) kunnen onderscheiden, en door zo'n systeem specifieke vragen te stellen, wellicht nog beter. Waarbij je, in beide gevallen, wellicht wel rekening moet houden met wijzigende meningen. Kortom: als een mening een identificerende eigenschap is van een mens, lijkt de mening van een AI-systeem ook een identificerende eigenschap te zijn.

Daarbij kan in de output van zo'n AI-systeem de "handtekening" zichtbaar zijn van diens creator(s) en/of degenen die dat systeem met data vullen (ook zij kunnen bevooroordeeld zijn).

Klopt mijn stelling dat AI-systemen, vooral met grote (en toenemende) complexiteit, een (met levende wezens met hercencellen vergelijkbare) identiteit hebben?

En als dat klopt, rekening houdend met de min of meer zichtbare handtekening van de creators en/of data-toevoegers, heeft zo'n systeem dan ook "recht op privacy"? Of "hangt dat ervan af"?

En zou je overheids-AI-systemen, bijv. middels WOB-verzoeken, vrijelijk moeten kunnen bevragen? Bijvoorbeeld om vast te stellen dat de gegevens op een zwarte lijst van bijv. een verzekering waar jij op blijkt te staan, één-op-één afkomstig zijn van een AI-systeem van bijvoorbeeld de belastingdienst?

Aanvulling 10:25: dat laatste is wellicht naïef van mij; het is onwenselijk als iedereen zomaar privacy-gevoelige informatie uit AI-systemen kan opvragen (alhoewel deels "zwart lakken" dat zou kunnen verzachten). Aan de andere kant weten we zelden wie nu en in de toekomst allemaal wél toegang hebben tot dat soort systemen (ook onbedoeld), noch in alle gevallen waarom zo'n systeem geraadpleegd wordt - wat überhaupt de inzet van dit soort systemen m.i. op z'n minst discutabel maakt.
Reacties (31)
31-01-2022, 10:16 door Anoniem
In het universiteitsvak Existential Risks, zie https://www.rug.nl/ocasys/rug/vak/show?code=UCG3HU06 worden de risico's onderzocht welke de mensheid bedreigen.

En wat blijkt ? Wetenschappers schatten in dat AI de grootste bedreiging is voor de mensheid, zie bijvoorbeeld het wetenschappelijke boek "The Precipice" bij dit vak.

Deze AI-Systemen halen vrijwel alle algemene informatie van het internet.

Om ons te beschermen tegen de grootste bedreiging voor de mensheid is beveiliging van het internet dus heel belangrijk.

Dan hebben deze AI-Systemen geen toegang tot informatie welke bedreigend gebruikt kan worden tegen mensen en de mensheid.
31-01-2022, 11:20 door Anoniem
De eerste misvatting is om AI als een vorm van intelligentie te zien zoals we dat bij mensen beschouwen.
Het volgen van een algoritme zouden we van mensen niet echt intelligent willen noemen. Eerder domheid en niet zelf kunnen/ willen nadenken.
De "Intelligentie" die bij AI bedoeld word is de automatische inzet voor het verzamelen van gegevens. Zie onder meer het Amerikaanse gebruik van het woord "Intelligence" in de CAI; Central Agency of Intelligence.
Met een menselijke eigenschap heeft AI dus niets of weinig te maken.
31-01-2022, 14:11 door Anoniem
AI systemen zijn per definitie niet menselijk. AI kan niet redeneren zoals mensen. AI systemen werken zo goed als de makers het ontwikkeld hebben. Daar zit overigens ook een uitdaging: In hoeverre snappen wij als mens nog hoe een AI systeem tot resultaten komt / is gekomen.
Dat de uitkomst van een AI systeem kan veranderen doordat de data veranderd, lijkt me een open deur. Dat geldt voor elk systeem. Is je input anders of wijzigen je parameters, dan is de kans zeer groot dat de output ook anders is. De uitdaging zit ‘m in te achterhalen hoe een AI systeem tot een resultaat is gekomen. Dat beantwoorden zit er niet ingebakken, dus krijg je er ook niet zomaar uit. Het is geen mens. Het blijven regels code.

Het is om die reden dat de Belastingdienst bij mijn weten (inmiddels) dan ook zeer terughoudend is met het gebruiken van AI. Met AI bedoelen we hier overigens meestal op machine learning gebaseerde toepassingen. Bij de Belastingdienst gaat het om systemen gebaseerd op beslisbomen of business rules. Ook daar kleven trouwens risico’s aan, als je bijv. persoonskenmerken als nationaliteit, leeftijd e.d. verkeerd toepast die dan vervolgens tot discriminatie leiden. Maar een voordeel in deze boven Machine Learning is, dat wel inzichtelijker is hoe er tot een bepaald resultaat is gekomen. Transparante AI is wat dat betreft een interessant onderzoeksgebied, waar nog veel te doen is.

En waarom alleen naar overheid kijken? Meta, met Facebook, WhatsApp en Instagram doet nog veel meer met jouw data. Ook als jij die niet gebruikt, want dan zijn er wel anderen die jou als contact hebben en jou data delen.

Uiteindelijk valt of staat met ons, de mens, hoe AI zich verder ontwikkelt. Hoe gaan en willen wij met AI omgaan? Dat AI ook voordelen biedt, blijkt wel uit proeven in de medische wereld, waar AI meer en met een hoger correct percentage kanker kan ontdekken op röntgenfoto’s dan de menselijke specialist. Maar ook je mobiele telefoon toont het nut aan. Zonder dat je het misschien realiseert worden jouw gegevens en gedrag dagelijks geanalyseerd door AI (algoritmes), worden je foto’s opgeleukt, gecorrigeerd, enz, enz. Heb je je telefoon al eens bevraagd over de privacy daarvan? En wat was het antwoord of zou het antwoord zijn? ….

Kortom, op dit gebied is nog heel veel te doen!
31-01-2022, 14:49 door Erik van Straten
Door Anoniem: De eerste misvatting is om AI als een vorm van intelligentie te zien zoals we dat bij mensen beschouwen. Het volgen van een algoritme zouden we van mensen niet echt intelligent willen noemen. Eerder domheid en niet zelf kunnen/ willen nadenken.
Ik vrees dat je de "intelligentie" van mensen overschat.

Zo vind ik het indrukwekkend hoe bijvoorbeeld illusionist Victor Mids gedrag kan voorspellen door mensen dingen te laten zien. En ik vind het griezelig om te zien hoe in de USA en, wereldwijd, in de huidige Coronacrisis, idioten (gestoord of met een heel andere agenda dan zij doen vermoeden) worden geloofd door hele kuddes mensen. Waarbij ik mijzelf vaak afvraag of ik niet ook zo'n idioot ben die de verkeerde mensen vertrouwt.

Ik hoop dat aan jezelf twijfelen een van de symptomen van intelligentie is (zo niet dan maak ik me misschien zorgen om niets). Maar ook dat kun je in algoritmes stoppen.

Door Anoniem: De "Intelligentie" die bij AI bedoeld word is de automatische inzet voor het verzamelen van gegevens. Zie onder meer het Amerikaanse gebruik van het woord "Intelligence" in de CAI; Central Agency of Intelligence. Met een menselijke eigenschap heeft AI dus niets of weinig te maken.
Oneens, als ik op internet naar intelligence zoek, vind ik 2 betekenissen:
1) the ability to acquire and apply knowledge and skills;
2) the collection of information of military or political value.

Oftewel er bestaan twee betekenissen: intelligentie en inlichtingen. Waarbij het in de basis, in beide gevallen, om het verzamelen van data gaat. Echter bij intelligentie beschik je over de capaciteiten om die data tot meer zinvolle informatie te verwerken (filteren, correleren, ...). Algoritmes zeg maar, en mechanismes om daarop te reageren.

Zoals anoniem van 10:16 schrijft is AI een grote bedreiging (met mijn toevoeging) - indien misbruikt. Wellicht omdat AI-systemen steeds moeilijker van mensen te onderscheiden zullen zijn.
31-01-2022, 15:53 door Anoniem
Door Erik van Straten:
Door Anoniem: De eerste misvatting is om AI als een vorm van intelligentie te zien zoals we dat bij mensen beschouwen. Het volgen van een algoritme zouden we van mensen niet echt intelligent willen noemen. Eerder domheid en niet zelf kunnen/ willen nadenken.
Ik vrees dat je de "intelligentie" van mensen overschat.

Zo vind ik het indrukwekkend hoe bijvoorbeeld illusionist Victor Mids gedrag kan voorspellen door mensen dingen te laten zien. En ik vind het griezelig om te zien hoe in de USA en, wereldwijd, in de huidige Coronacrisis, idioten (gestoord of met een heel andere agenda dan zij doen vermoeden) worden geloofd door hele kuddes mensen. Waarbij ik mijzelf vaak afvraag of ik niet ook zo'n idioot ben die de verkeerde mensen vertrouwt.

Ik hoop dat aan jezelf twijfelen een van de symptomen van intelligentie is (zo niet dan maak ik me misschien zorgen om niets). Maar ook dat kun je in algoritmes stoppen.

Door Anoniem: De "Intelligentie" die bij AI bedoeld word is de automatische inzet voor het verzamelen van gegevens. Zie onder meer het Amerikaanse gebruik van het woord "Intelligence" in de CAI; Central Agency of Intelligence. Met een menselijke eigenschap heeft AI dus niets of weinig te maken.
Oneens, als ik op internet naar intelligence zoek, vind ik 2 betekenissen:
1) the ability to acquire and apply knowledge and skills;
2) the collection of information of military or political value.

Oftewel er bestaan twee betekenissen: intelligentie en inlichtingen. Waarbij het in de basis, in beide gevallen, om het verzamelen van data gaat. Echter bij intelligentie beschik je over de capaciteiten om die data tot meer zinvolle informatie te verwerken (filteren, correleren, ...). Algoritmes zeg maar, en mechanismes om daarop te reageren.

Zoals anoniem van 10:16 schrijft is AI een grote bedreiging (met mijn toevoeging) - indien misbruikt. Wellicht omdat AI-systemen steeds moeilijker van mensen te onderscheiden zullen zijn.

Op https://bit.ly/3J7ZE4z kun je de aangehaalde kwantitative wetenschappelijke onderbouwing vinden uit het universiteitsvak Existential Risks.
31-01-2022, 17:51 door Erik van Straten
Door Anoniem: Op https://bit.ly/3J7ZE4z kun je de aangehaalde kwantitative wetenschappelijke onderbouwing vinden uit het universiteitsvak Existential Risks.
Dank voor dat hoofdstuk! Ik hou mij niet met risico's bezig die de mensheid bedreigen, maar ook in de ICT zijn risico's met grote impact en kleine kans "een dingetje" doordat zij vaak onderaan de prioriteitenlijst belanden.
31-01-2022, 20:44 door karma4 - Bijgewerkt: 31-01-2022, 20:51
Door Erik van Straten: Voorbeeld (wellicht flauw): als je vorig jaar aan de computer van de belastingdienst vroeg of iemand met de voornaam "Ahmed" een grotere kans heeft om zich schuldig te maken aan fraude dan "Jan", was het antwoord "ja" en nu (of binnenkort) wordt dat waarschijnlijk (en, naar mijn mening, hopelijk): "geen idee".
Inderdaad flauw, het is meer gegeven de de kans dat verhoudingsgewijs veel Ahmeds (woonachtig in bepaalde wijken) de fout in gaan is de kans groot dat het met een overeenkomstig persoon ook zo is.
In de nieuwe inclusiviteit moet dat ander ingevuld worden. We weten dat er nog meer figuren uit deze groepen acht fout bezig zijn maar wegens de bescherming mogen we daar niets over zeggen. Komt aardig overeen met nederland als belastingparadijs via rulings.

Klopt mijn stelling dat AI-systemen, vooral met grote (en toenemende) complexiteit, een (met levende wezens met hercencellen vergelijkbare) identiteit hebben?
van geen kanten een ai systeem voor administratieve dolen kijkt naar waargenomen verdelingen in bepaalde kenmerken met populaties. Als je daarbij onafhankelijke kenmerken vindt die een voorspellende waarde lijken te hebben dan kun je daar wat mee. Filelengte verkeersdrukte tijd /datum lijken me prima kandidaten voor een model.


Door Anoniem: Het is om die reden dat de Belastingdienst bij mijn weten (inmiddels) dan ook zeer terughoudend is met het gebruiken van AI. Met AI bedoelen we hier overigens meestal op machine learning gebaseerde toepassingen. Bij de Belastingdienst gaat het om systemen gebaseerd op beslisbomen of business rules. Ook daar kleven trouwens risico’s aan, als je bijv. persoonskenmerken als nationaliteit, leeftijd e.d. verkeerd toepast die dan vervolgens tot discriminatie leiden.
Wetgeving hoe een en ander grelgd is bevat die persoonskenmerken nationaliteit (nederlander/ woonachtig in nederland) leeftijd zijn gewoon overheidsregistraties met rechten en plichten.
Gebruik je die niet dan maak je gewoon geld over naar bulgaren of turken aldaar woonachtig en werkend.
Het risico wat we nu zien is een onwerkbare gebeuren dat er niets zou degen of kunnen.
Overigens ben ik ervan overtuigd dat ze teruggevallen zijn handmatig persoonlijk werken omdat centrale controleerbare systemen niet meer kunnen.De vernieuwing is gewoon stopgezet om terug te keren naar lang geleden.
31-01-2022, 22:26 door Anoniem
Stel dat een nieuwsbron meld mohamet heeft x of y gedaan en een computer beslist om alle gelijknamige te gaan controleren dan zijn moslims wel een benadeelde positie.
01-02-2022, 05:42 door Anoniem
Waarom niet gelijk de discussie uitgebreid naar de maatregelen van de afgelopen maanden en de implicatie(s) van het invoeren van een QR-paspoort in de EU en op andere continenten? OF AI en de komende perikelen rond Rusland (samen met voorspellingen van de lubavitscher "Gaon"?)?
01-02-2022, 12:09 door Anoniem
Door Erik van Straten:
Door Anoniem: Op https://bit.ly/3J7ZE4z kun je de aangehaalde kwantitative wetenschappelijke onderbouwing vinden uit het universiteitsvak Existential Risks.
Dank voor dat hoofdstuk! Ik hou mij niet met risico's bezig die de mensheid bedreigen, maar ook in de ICT zijn risico's met grote impact en kleine kans "een dingetje" doordat zij vaak onderaan de prioriteitenlijst belanden.

Een risico met grote impact is dat (toekomstige) Quantum Computers de huidige asymmetrische encryptie kraken.

Op https://www.math4sci.com/ is wat achtergrond info te vinden van beveiligingsstandaarden en systemen welke
gebruikt worden op nederlandse universiteiten en onderzoeksinstellingen welke ook niet gekraakt kunnen worden met (toekomstige) Quantum Computers (zie bijvoorbeeld NDAX QUANTUM SYSTEEM en COMPLEXITY AND RANDOMNESS).
01-02-2022, 12:22 door Anoniem
Uit https://nl.wikipedia.org/wiki/Identiteit_(eigenheid):
Identiteit van een object
Twee exemplaren van een nauwkeurig bepaald object kan men per definitie identiek noemen. Aan de andere kant is een verwisseling ervan toch in zekere zin een verandering. Op basis van het model waarbij de twee exemplaren volmaakt hetzelfde zijn, maar zich alleen op een verschillende locatie bevinden, is er geen verschil tussen de begin- en eindtoestand van de verwisseling. Als echter de verwisseling gezien wordt als proces dat de verwisseling van fysieke objecten modelleert, in een tijdsinterval, waarbij op de tussentijden tussenposities worden ingenomen, dan is er verschil tussen verwisseling en ieder op zijn oude plaats terugkomen. In die zin hebben de identieke objecten een eigen identiteit.
Op die basis heeft een AI systeem absoluut een identiteit, maar die is erin gelegd door mensen die het systeem hebben ontworpen en gebouwd, en door interactie met de omgeving waardoor het systeem "geleerd" heeft.
Vergelijk de identiteit van de mens: gedeeltelijk genetisch bepaald, en voor een ander deel door de omgeving bepaald.
01-02-2022, 12:47 door Erik van Straten - Bijgewerkt: 01-02-2022, 12:57
Door Anoniem: Waarom niet gelijk de discussie uitgebreid naar ...
Omdat je daarmee geen bijdrage levert aan het oplossen van specifieke (bestaande, voorspelde en/of verwachte) problemen, of daar op z'n minst meer van zou kunnen begrijpen door erover van gedachten te wisselen met mensen die steekhoudende argumenten (vóór en tegen) aandragen. Oftewel, geen mensen dwarszit die op z'n minst wijzer willen worden op dit thema.

Helemaal niemand schiet er iets mee op dat nagenoeg elke serieuze discussie op security.nl wordt omgebogen naar het off-topic dumpen van argumentloze en soms achterhaalde meningen over wat overall de "beste" oplossing zou zijn voor probleem X, zoals wel of niet vaccineren, open vs closed source en Microsoft vs whatever.

Blijf on-topic. En als je dit een onzin-topic vindt (dat mag), hoepel dan op; niemand verplicht jou iets te lezen in deze draad (en andere draden) - laat staan ergens op te reageren. En als je toch meent iets interressants, dat hier off-topic is, te moeten melden, begin dan je eigen draad - in plaats van een topic van een ander te saboteren.
01-02-2022, 14:10 door Erik van Straten - Bijgewerkt: 01-02-2022, 14:16
Door karma4:
Door Erik van Straten: Voorbeeld (wellicht flauw): als je vorig jaar aan de computer van de belastingdienst vroeg of iemand met de voornaam "Ahmed" een grotere kans heeft om zich schuldig te maken aan fraude dan "Jan", was het antwoord "ja" en nu (of binnenkort) wordt dat waarschijnlijk (en, naar mijn mening, hopelijk): "geen idee".
Inderdaad flauw, het is meer gegeven de de kans dat verhoudingsgewijs veel Ahmeds (woonachtig in bepaalde wijken) de fout in gaan is de kans groot dat het met een overeenkomstig persoon ook zo is.
Statistisch ja, maar (ik ben geen "bijstandfraudedeskundige" en ben dus misschien onvolledig):

1) Je discrimineert als je op basis van gegevens van anderen, op basis van vooroordelen dus, een persoon -waar je verder nog niets van weet- anders behandelt.

Als voorbeelden, niet bedoeld als persoonlijke aanval: stel dat blijkt dat, statistisch gezien, mensen die veel schrijffouten maken (door slechte ogen, dyslexie, motorische problemen, die hun biertjes delen met hun toetsenbord, of ...) vaker crimineel blijken te zijn dan mensen die genoemde problemen niet hebben, en dat jij daardoor op zo'n lijst terechtkomt - zonder dat wij verder iets van jou weten? Of als blijkt dat de meer dan 50% van de mensen die kritiek hebben op de AP het niet zo nauw nemen met de AVG, en dat, als jij een functie hebt waarbij je verantwoordelijk bent voor de verwerking van persoonsgegevens, dus ook jij die AVG wel aan jouw laars zult lappen?

2) Potentieel frauderende personen met meer westerse voornamen en/of met een andere postcode kunnen zo een lagere prioriteit krijgen dan gerechtvaardigd is t.o.v. genoemde groepen.

3) Het risico bestaat dat je meer focust op kruimelfraude dan ernstiger criminaliteit (waaronder witte boorden-).

4) Dit heeft hoogstwaarschijnlijk een zelfversterkend effect: je heet Ahmed en je woont in Rijnmond dus ondergemiddelde leskwaliteit, geen (fatsoenlijke) stageplaats, geen baan (passend bij niveau), minder kansen, geen nieuwe smartphone, geen auto, duurdere verzerkeringen, geen eigen woning (laat staan elders), huurwoning met achterstallig onderhoud en enkel glas, ...

Nb. e.e.a. wil niet zeggen dat ik fraude en/of criminaliteit goedkeur (zeker niet), maar in een maatschappij waarin we zulke verschillen toestaan en zelfs aanjagen ben je wel heel erg naïef als je niet snapt waar dat gedrag vandaan komt.

Klopt mijn stelling dat AI-systemen, vooral met grote (en toenemende) complexiteit, een (met levende wezens met hercencellen vergelijkbare) identiteit hebben?
van geen kanten een ai systeem voor administratieve dolen kijkt naar waargenomen verdelingen in bepaalde kenmerken met populaties. Als je daarbij onafhankelijke kenmerken vindt die een voorspellende waarde lijken te hebben dan kun je daar wat mee. Filelengte verkeersdrukte tijd /datum lijken me prima kandidaten voor een model.
Oneens.

I.r.t. filelengte durf ik de stelling wel aan dat als je iemand een tijdje de door bijv. TomTom en Google Maps aanbevolen routes voorlegt, zonder dat die persoon weet van welke fabrikant een systeem is (en dat ook niet uit bijv. het gebruikte kaartmateriaal kan afleiden), die persoon door biases in die systemen ze na een tijdje prima uit elkaar kan houden. D.w.z. op basis van een aanbevolen route -gegeven bepaalde omstandigheden- kan zeggen of dat advies uit systeem 1 of uit systeem 2 komt.

En in plaats van aan een persoon zou je die vraag ook aan een (zelflerend) AI-systeem kunnen voorleggen, en dat systeem zou wel eens beter kunnen presteren dan een mens. Ik denk dat de grenzen steeds meer vervagen.
01-02-2022, 14:12 door Anoniem
Laat dan iemand maar eens komen met kritiek of lof over de intelx.io zoekmachine.
Meegewerkt aan een sinkholing project van Peter Kleissner, eertijds een van de beste jonge Wener hackers.
Gaat om het "onorthodoxe"van dergelijke ontwikkelingen.
luntrus
02-02-2022, 00:06 door Erik van Straten
Door Anoniem: Uit https://nl.wikipedia.org/wiki/Identiteit_(eigenheid):
Identiteit van een object [...]
Op die basis heeft een AI systeem absoluut een identiteit, maar die is erin gelegd door mensen die het systeem hebben ontworpen en gebouwd, en door interactie met de omgeving waardoor het systeem "geleerd" heeft.
Vergelijk de identiteit van de mens: gedeeltelijk genetisch bepaald, en voor een ander deel door de omgeving bepaald.
Dank voor jouw reactie. Waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt mij op zich niet zo belangrijk; ik vermoed dat de ontwerpers, programmeurs en data-toevoegers daar een rol in spelen, en een meer of minder opvallende bias in de output veroorzaken.

Voor zover dat al niet gebeurt, zullen we AI-systemen moeten gaan auditten en wellicht aan minder voorspelbare tests onderwerpen (vergelijkbaar met pentesting) om naar ongewenste "redenaties" van zo'n systeem te zoeken. Personeel laten we immers ook examens afleggen na het volgen van opleidingen, om vast te stellen of zij zich de leerstof voldoende eigen hebben gemaakt.
02-02-2022, 03:35 door Anoniem
Zoek deze string eens in je favoriete artificieel intelligente machine:

"luciferdoosjes computer"

Om even back to basics te gaan.
Probleem is niet de intelligentie, maar de evolutie.
02-02-2022, 05:35 door Anoniem
Wordt AI de "getrainde aap"van de toekomst? Input = output, chaos in = chaos out.
Net als nu, die de beslissingen nemen, hoeven er geen verstand van te hebben, maar sturen wel.
Kan die sturing niet totalitair zijn? Hoe waken tegen uitwassen en ergo gevaren van een Big Brother systeem?
De "robotwetten" van lieden als Asimov en Lem gaan toepassen?
Leven in sci-fi hoeft niet altijd een vreugde te zijn? Wat doet IT "de wereld" aan?
02-02-2022, 12:02 door Anoniem
Door Erik van Straten:
Door Anoniem: Uit https://nl.wikipedia.org/wiki/Identiteit_(eigenheid):
Identiteit van een object [...]
Op die basis heeft een AI systeem absoluut een identiteit, maar die is erin gelegd door mensen die het systeem hebben ontworpen en gebouwd, en door interactie met de omgeving waardoor het systeem "geleerd" heeft.
Vergelijk de identiteit van de mens: gedeeltelijk genetisch bepaald, en voor een ander deel door de omgeving bepaald.
Dank voor jouw reactie. Waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt mij op zich niet zo belangrijk; ik vermoed dat de ontwerpers, programmeurs en data-toevoegers daar een rol in spelen, en een meer of minder opvallende bias in de output veroorzaken.

Voor zover dat al niet gebeurt, zullen we AI-systemen moeten gaan auditten en wellicht aan minder voorspelbare tests onderwerpen (vergelijkbaar met pentesting) om naar ongewenste "redenaties" van zo'n systeem te zoeken. Personeel laten we immers ook examens afleggen na het volgen van opleidingen, om vast te stellen of zij zich de leerstof voldoende eigen hebben gemaakt.
Wellicht moeten we bij A.I. onderscheid maken tussen rule-based systemen en neurale netwerken.
Ingewikkelde neurale netwerken lijken me moeilijker te beheersen dan ingewikkelde rule-based systemen.
Een combinatie van die twee wordt helemaal een uitdaging. Dat gaat in de richting van dat de ontwerper a.h.w. de regering is die nieuwe wetten uitvaardigt, terwijl het A.I.-systeem het volk is. ;-)
02-02-2022, 13:02 door EersteEnigeEchte M.J. - EEEMJ - Bijgewerkt: 02-02-2022, 13:12
Door Erik van Straten:
Door Anoniem: Uit https://nl.wikipedia.org/wiki/Identiteit_(eigenheid):
Identiteit van een object [...]
Op die basis heeft een AI systeem absoluut een identiteit, maar die is erin gelegd door mensen die het systeem hebben ontworpen en gebouwd, en door interactie met de omgeving waardoor het systeem "geleerd" heeft.
Vergelijk de identiteit van de mens: gedeeltelijk genetisch bepaald, en voor een ander deel door de omgeving bepaald.
Dank voor jouw reactie. Waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt mij op zich niet zo belangrijk; ik vermoed dat de ontwerpers, programmeurs en data-toevoegers daar een rol in spelen, en een meer of minder opvallende bias in de output veroorzaken.

Voor zover dat al niet gebeurt, zullen we AI-systemen moeten gaan auditten en wellicht aan minder voorspelbare tests onderwerpen (vergelijkbaar met pentesting) om naar ongewenste "redenaties" van zo'n systeem te zoeken. Personeel laten we immers ook examens afleggen na het volgen van opleidingen, om vast te stellen of zij zich de leerstof voldoende eigen hebben gemaakt.

De vraag waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt jou op zich niet zo belangrijk. Daar ben ik het niet mee eens. Die vraag is in mijn ogen juist van wezenlijk belang.

Ik wil graag verwijzen naar de roman "Klara en de zon" (2021) van nobelprijswinnaar Kazuo Ishiguro . De hoofdpersoon is een AI-systeem (robot) genaamd Klara. Enkele mensen willen dat deze robot de identiteit van een ernstig ziek meisje kopieert, zodat de robot na eventueel overlijden dit zieke meisje (Josie) kan vervangen voor haar dierbaren. Uiteindelijk komt de robot zelf tot de conclusie dat "zij" het meisje nooit zal kunnen vervangen, niet vanwege de inherente eigenschappen van het meisje (die zij zeer getrouw zou kunnen imiteren), maar vanwege iets anders. Klara zegt:

"Meneer Capaldi gelooft dat er in Josie niets bijzonders was, dat niet voortgezet had kunnen worden. (...) Maar ik geloof nu dat hij het op de verkeerde plek zocht. Er bestond wel degelijk iets bijzonders, maar niet in Josie. Het bestond in de mensen die van Josie hielden." (vertaling van mij uit een buitenlandse taal)

Graag verwijs ik in dit verband ook naar het essay-cum-hoger beroepschrift "Lof der individualiteit - Privacy, connectiviteit en autoritair denken" (maart 2020) van privacy-activist Michiel Jonker. Dat is vindbaar op: https://www.privacyfirst.nl/images/stories/PDFs/2020-03-06-prv-ABRS-hoger-beroep-AP-Connexxion-en-NS-versie-2020-03-13.pdf

In paragraaf 2.3.3 ("De mens als knooppunt van verbindingen - groeihumanisme") van dat essay wordt onder andere betoogd dat menselijke identiteiten ontstaan wanneer mensen zulke identiteiten aan andere entiteiten toeschrijven. Zo'n entiteit kan een ander mens zijn, maar het kan ook een speelgoedbeest zijn, of een robot / AI-systeem. Zie met name pagina's 26 en 27 onder de kopjes: "Identiteit, rol en functie" en "Beslissingsmacht over identiteit en menselijkheid".

M.J.
02-02-2022, 13:11 door Anoniem
Ha M.J. Mooie insteek over kwalificeren van menselijk bewustzijn tegenover overig bewustzijn. In hoeverre kunnen we nog spreken van de oorspronkelijke code van alles wat er is en de 'gekaapte' versies? De natuurlijke mens tegenover homo in silico. Voordelen voor het collectief, nadelen voor het individu merendeels.
luntrus
02-02-2022, 13:24 door Anoniem
Door Anoniem: In het universiteitsvak Existential Risks, zie https://www.rug.nl/ocasys/rug/vak/show?code=UCG3HU06 worden de risico's onderzocht welke de mensheid bedreigen.

En wat blijkt ? Wetenschappers schatten in dat AI de grootste bedreiging is voor de mensheid, zie bijvoorbeeld het wetenschappelijke boek "The Precipice" bij dit vak.

Deze AI-Systemen halen vrijwel alle algemene informatie van het internet.

Om ons te beschermen tegen de grootste bedreiging voor de mensheid is beveiliging van het internet dus heel belangrijk.

Dan hebben deze AI-Systemen geen toegang tot informatie welke bedreigend gebruikt kan worden tegen mensen en de mensheid.
Ik vrees dat de grootste bedreiging van de mensheid de mensheid zelf is. We zien dat het menselijk brein vrij eenvoudig te manipuleren is waardoor het menselijk gedrag negatief te beinvloeden is waardoor de mens in staat is om zichzelf uit te roeien. Het enige wezen dat in staat is omzichzelf uit te roeien is ook de mens en daar hoeft geen AI bij komen kijken.
Als je naar de Corona toestand kijkt zie je slaafse volgers maar ook mensen die de andere kant doorslaan. Beide partijen vormen een gevaar voor een samenleving. En dat is vaker niet gebaseerd op intelligentie dan wel. Als de mens zo intelligent zou zijn dan had een Corona besmetting waarschijnlijk helemaal niet geleid tot een pandemie of waren mensen helemaal niet gemakkelijk te beinvloeden om achter bepaalde figuren of overheden aan te rennen en alles te geloven wat deze zeggen.
Zoals al eerder gezegd heeft een AI niet met intellect te maken maar eerder met een voorbedacht algoritme, nulletjes en eentjes dus. 1 voor ja en 0 voor nee. Het menselijk brein is in staat om afwegingen te maken anders dan de uitkomst van een algoritme maar of dit wel of niet gebeurd hangt weer samen met het gedrag en de mate van intelligentie om te kunnen overzien wat het gevolg is van een bepaalde beslissing. Maar dit heeft ook met zaken als emotie te maken, iets van een AI of computer nooit zal hebben.
02-02-2022, 14:23 door Erik van Straten - Bijgewerkt: 02-02-2022, 14:28
Door Anoniem: Wordt AI de "getrainde aap"van de toekomst? Input = output, chaos in = chaos out.
Net als nu, die de beslissingen nemen, hoeven er geen verstand van te hebben, maar sturen wel.
Kan die sturing niet totalitair zijn? Hoe waken tegen uitwassen en ergo gevaren van een Big Brother systeem?
De "robotwetten" van lieden als Asimov en Lem gaan toepassen?
Leven in sci-fi hoeft niet altijd een vreugde te zijn? Wat doet IT "de wereld" aan?
Plausibele argumenten, maar aangezien veel mensen (waaronder ik), naast nadelen ook voordelen zien, hou je deze ontwikkelingen vermoedelijk niet tegen. Het is geen atoombom die alleen maar verkeerd gebruikt kan worden (en zelfs de verspreiding daarvan hebben we niet onder de duim), eerder een vliegtuig: erg handig, maar je kunt er ook wolkenkrabbers mee laten instorten.

Bovendien, als we AI-systemen al zouden kunnen tegenhouden, is dat hooguit in democratieën. Andere staatsvormen en (cyber-) criminelen zullen zich niets van onze regels aantrekken, dus krijgen we ermee te maken.

Als security&privacybewakers moeten we ook rekening houden met aanvallen op AI-systemen (niet alleen door "insiders"); denk aan criminelen die (voor henzelf of derden) AI-systemen zodanig kunnen wijzigen dat de output gunstiger is voor de belanghebbenden, maar ook aan cybercriminelen die nu ransomware maken; zij zouden AI-systemen zo kunnen beïnvloeden (wellicht sluipenderwijs) dat deze een geleidelijk toenemend ongunstig resultaat voor de eigenaar opleveren (of op een specifieke datum triggert), waarbij -tegen betaling van losgeld- een "undo-mechanisme" wordt aangeboden. Immers, hoe complexer systemen zijn, hoe lastiger het meestal zal zijn om, zodra je weet dat er iets mis is, wat er precies mis is in je systeem (welke data en/of algoritmes zijn gemanipuleerd).

Zoals ik eerder schreef: we moeten betrouwbare manieren vinden om vast te stellen dat AI-systemen niet worden misbruikt en naar behoren werken, op basis van o.a. de juiste, volledige, tijdige en authentieke data. Of bestaande toetskaders, zoals ISO 27001, daarbij volstaan, betwijfel ik.

Ik weet nog te weinig van AI-systemen. Wellicht ben ik er te laat ingedoken - hopelijk is dit JIT (Just In Time).

Een m.i. goede introductie (met aandacht voor aanvallen) voor security&privacybrildragers vond ik in een PDF (Engelstalig) van mei 2021, te downloaden bij de Duitse collega van ncsc.nl (dit is een webpage met een link naar de feitelijke PDF):
https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/KI/Towards_Auditable_AI_Systems.pdf.
02-02-2022, 14:44 door Erik van Straten
Door Anoniem: Wellicht moeten we bij A.I. onderscheid maken tussen rule-based systemen en neurale netwerken.
Ingewikkelde neurale netwerken lijken me moeilijker te beheersen dan ingewikkelde rule-based systemen.
Een combinatie van die twee wordt helemaal een uitdaging. [...]
In de PDF, waar ik in mijn vorige bijdrage naar verwees, lijken de auteurs dat onderscheid te maken.

Echter, de term "hybrid" hoor ik de laatste tijd steeds vaker (in allerlei contexts), en zoals je schrijft liggen combinaties van technieken ook hier voor de hand. Meestal verhoogt "hybrid" de complexiteit - en dat is vaak één van de grote vijanden van verantwoordelijken voor privacy, security en/of kwaliteit.
02-02-2022, 15:32 door Erik van Straten
Door EersteEnigeEchte M.J. - EEEMJ:
Door Erik van Straten: [...] Waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt mij op zich niet zo belangrijk; ik vermoed dat de ontwerpers, programmeurs en data-toevoegers daar een rol in spelen, en een meer of minder opvallende bias in de output veroorzaken.
De vraag waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt jou op zich niet zo belangrijk. Daar ben ik het niet mee eens. Die vraag is in mijn ogen juist van wezenlijk belang.
Kweenie. Als bijv. één medewerker van de belastingdienst bij input "potentieel frauduleus" aanvinkt omdat een naam niet westers klinkt, is dat interessant voor zoekers naar de rotte appel(s). Voor een buitenstaander (al dan niet slachtoffer) maakt het niet zoveel uit of een hele afdeling dit doet of een enkele medewerker, de belastingdienst is immers verantwoordelijk.

Als gegevens uit het systeem van de belastingdienst bij andere partijen (UWV, BKR, verzekeringen, politie, ...) terechtkomen, lijkt het mij voor slachtoffers vooral van belang om te weten dat de belastende gegevens door de belastingdienst zijn gedeeld, wie precies het vinkje gezet heeft lijkt mij daarbij van ondergeschikt belang (tenzij je civiel wilt procederen, maar zelfs dan vermoed ik dat een rechter je naar "de baas" van die medewerker zal doorverwijzen).

Maar mogelijk heb je heel andere scenario's voor ogen - die mij ontgaan.

Door EersteEnigeEchte M.J. - EEEMJ: Ik wil graag verwijzen naar de roman "Klara en de zon" (2021) van nobelprijswinnaar Kazuo Ishiguro. [...]
Er bestond wel degelijk iets bijzonders, maar niet in Josie. Het bestond in de mensen die van Josie hielden." (vertaling van mij uit een buitenlandse taal)
Dat deed mij meteen denken aan de virtuele reünie van een zuid-Koreaanse moeder met haar overleden dochter (https://youtu.be/0p8HZVCZSkc). Mark Zuckerberg verwacht dat hij (en een stel aandeelhouders) met deze technologie nog rijker gaan worden.

Het wachten is op een BLE-implantaat in ons hoofd waarmee aanvullende sensaties zoals geur, smaak, G-krachten > 1, aanraken (al dan niet intiem, andere G-krachten zeg maar) geluksgevoel etc. kunnen worden opgewekt. Real Life was zo 2022...

Toen Queen-drummer Roger Taylor "I'm in Love with My Car" schreef, bedoelde hij geen Tesla (die bestonden nog niet). Maar zodra benzinestations verleden tijd zijn, is zo'n soort song voor een zelftrappend (en zelfsturend) e-hok, zonder dubbele Webers maar met brede sloffen, wellicht niet ondenkbaar ;-)

Door EersteEnigeEchte M.J. - EEEMJ: Graag verwijs ik in dit verband ook naar het essay-cum-hoger beroepschrift "Lof der individualiteit - Privacy, connectiviteit en autoritair denken" (maart 2020) van privacy-activist Michiel Jonker. Dat is vindbaar op: https://www.privacyfirst.nl/images/stories/PDFs/2020-03-06-prv-ABRS-hoger-beroep-AP-Connexxion-en-NS-versie-2020-03-13.pdf [...]
Ik ga ernaar kijken!
02-02-2022, 17:51 door EersteEnigeEchte M.J. - EEEMJ
Door Erik van Straten:
Door EersteEnigeEchte M.J. - EEEMJ: De vraag waar precies de eigenschappen vandaan komen waarmee je, aan de hand van de output, de identiteit van een AI-systeem zou kunnen vaststellen, lijkt jou op zich niet zo belangrijk. Daar ben ik het niet mee eens. Die vraag is in mijn ogen juist van wezenlijk belang.
Kweenie. Als bijv. één medewerker van de belastingdienst bij input "potentieel frauduleus" aanvinkt omdat een naam niet westers klinkt, is dat interessant voor zoekers naar de rotte appel(s). Voor een buitenstaander (al dan niet slachtoffer) maakt het niet zoveel uit of een hele afdeling dit doet of een enkele medewerker, de belastingdienst is immers verantwoordelijk.

Als gegevens uit het systeem van de belastingdienst bij andere partijen (UWV, BKR, verzekeringen, politie, ...) terechtkomen, lijkt het mij voor slachtoffers vooral van belang om te weten dat de belastende gegevens door de belastingdienst zijn gedeeld, wie precies het vinkje gezet heeft lijkt mij daarbij van ondergeschikt belang (tenzij je civiel wilt procederen, maar zelfs dan vermoed ik dat een rechter je naar "de baas" van die medewerker zal doorverwijzen).

Maar mogelijk heb je heel andere scenario's voor ogen - die mij ontgaan.

Ik haakte aan op jouw idee dat een AI-systeem een "identiteit" kan hebben, en op de vraag wat een "identiteit" dan eigenlijk is. Is het alleen een combinatie van kenmerken, of is er nog meer voor nodig om te kunnen spreken van een "identiteit". Dit is van belang voor (ten minste) drie vragen, die alle drie impliciet in de door mij genoemde roman ("Klara en de zon") aan de orde kwamen:
(1) Kan een AI-systeem of een robot een "identiteit" of zelfs een "menselijke identiteit" hebben?
(2) Kun je de identiteit van een mens bepalen aan de hand van uitsluitend diens kenmerken?
(3) Behelst de identiteit van een mens of een "ding" misschien meer dan diens kenmerken, bijv. ook gevoelens van liefde die anderen op die mens of dat "ding" projecteren en/of waardoor anderen met die mens/dat ding verbonden zijn of zich verbonden voelen?

Ik weet dat Security.nl een forum is met veel aandacht voor (d.w.z. "een focus op") techniek, en dat ik hier vaak met een iets afwijkende invalshoek kom, die door sommigen soms als "off-topic" wordt beschouwd. Maar mij interesseren raakvlakken tussen tech en emoties.

Eén van de redenen voor die interesse is omdat ethiek, voor zover die niet strikt-utilitaristisch opgevat wordt als een soort technische calculatie, altijd ook samenhangt met emoties. Ethiek en moraal houden altijd ook verband met eergevoel, plichtsgevoel en empathie, en dan gaat het dus om emoties. Daarom is het mijns inziens onmogelijk om fundamentele discussies over techniek en het (ethische) gebruik daarvan te voeren, als je daarbij tegelijk emoties buitensluit uit die discussies (wat eigenlijk betekent: taboe verklaart, want onderhuids blijven die emoties toch altijd meeresoneren, ook als een conversatie schijnbaar alleen over "technische" onderwerpen gaat). Het onderwerp van deze draad, "AI: identiteit en privacy", wordt aan alle kanten gekenmerkt door ethische aspecten.

Door EersteEnigeEchte M.J. - EEEMJ: Ik wil graag verwijzen naar de roman "Klara en de zon" (2021) van nobelprijswinnaar Kazuo Ishiguro. [...]
Er bestond wel degelijk iets bijzonders, maar niet in Josie. Het bestond in de mensen die van Josie hielden." (vertaling van mij uit een buitenlandse taal)
Dat deed mij meteen denken aan de virtuele reünie van een zuid-Koreaanse moeder met haar overleden dochter (https://youtu.be/0p8HZVCZSkc). Mark Zuckerberg verwacht dat hij (en een stel aandeelhouders) met deze technologie nog rijker gaan worden.

Het wachten is op een BLE-implantaat in ons hoofd waarmee aanvullende sensaties zoals geur, smaak, G-krachten > 1, aanraken (al dan niet intiem, andere G-krachten zeg maar) geluksgevoel etc. kunnen worden opgewekt. Real Life was zo 2022...

Wat mij altijd verbaast is die gedrevenheid om via techniek iets te realiseren terwijl het in veel gevallen ook zonder techniek kan worden gerealiseerd. Ik vermoed dat het verschil is dat mensen als Zuckerberg zelf controle willen hebben over dat soort ervaringen, en zich niet realiseren dat geluksgevoel nooit hetzelfde kan zijn wanneer je het door middel van techniek opwekt, vergeleken met wanneer het je "gegeven" wordt zonder dat je het zelf aanstuurt." Vergelijk het met het verschil tussen als je je eigen rug aait en als iemand anders je rug aait. Ik vind het zelf veel fijner als iemand anders dat doet, dan ontvang ik iets anders en geniet ik op een heel andere manier...

Maar het ontvangen van zoiets vereist wel overgave van mijn kant, en dat is dus het tegenovergestelde van technische beheersing van mijn kant. Juist door de controle los te laten, maak ik het mogelijk dat ik iets ontvang en daar gelukkig van word. Maar overgave betekent tegelijk ook dat ik vrijwillig het risico neem dat ik pijn en teleurstelling ervaar. Dat is vermoedelijk de angst van waaruit mensen hun toevlucht zoeken in techniek.

Toen Queen-drummer Roger Taylor "I'm in Love with My Car" schreef, bedoelde hij geen Tesla (die bestonden nog niet). Maar zodra benzinestations verleden tijd zijn, is zo'n soort song voor een zelftrappend (en zelfsturend) e-hok, zonder dubbele Webers maar met brede sloffen, wellicht niet ondenkbaar ;-)

Ik begrijp je verwijzingen niet helemaal ("dubbele Webers"??? "brede sloffen"??? - gaat dat over auto- of skeltertechniek?) maar op de één of andere manier moet ik nu aan s*ksrobots denken die tegenwoordig worden ontwikkeld en waar mensen ook daadwerkelijk verliefd op kunnen worden, net als op huisdieren trouwens.

Nog niet zo lang geleden was ik op bezoek bij iemand met een kat. Gelukkig was ik mij vanaf het begin bewust van het feit dat deze kat (een jonge jeweetwel-kater) belangrijk was en dat op zijn manier ook wist. Ik zorgde er dus vanaf het begin van mijn bezoek voor dat de kat wist dat ik hem ook waardeerde en dat hij mij niet als concurrent hoefde te zien. Ik cultiveerde een prettige, respectvolle relatie met deze kat - die inderdaad beschikte over een markante persoonlijkheid.

Ondanks mijn respect en waardering viel deze kat toch midden in de nacht mijn voeten aan (alsook de voeten van degene bij wie ik op bezoek was). Nadat dit een aantal keren gebeurd was, ging ik over tot maatregelen om de kat buiten te sluiten uit het slaapvertrek, dat echter alleen kon worden afgesloten met een roldeur. Ongelooflijk maar waar... die kat wist de roldeur telkens weer open te krijgen, ook nadat ik die op twee plekken geblokkeerd had met een zwaar voorwerp. Het resultaat van deze interactieve dynamiek was dat een etmaal later de kat ons enerzijds op bepaalde momenten niet meer stoorde, maar anderzijds op andere, meer geschikte momenten gezellig bij ons op bed sliep. Iedereen tevreden, en het was leuk om wakker te worden doordat er een staart zacht en donzig langs mijn hoofd streek.

Uiteindelijk bleek dus een oplossing waarin overgave centraal stond (de kat toelaten tot het bed) veel beter te functioneren dan het streven naar een oplossing "met technische middelen" (het blokkeren van die roldeur).

Hetzelfde zie je in de c*r*na-crisis gebeuren. Men streeft naar een "technische oplossing" door middel van v*cc*ns, c*r*na-t*gangsbew*zen en dergelijke, terwijl het gedoseerd toelaten van het v*rus wellicht tot een veel betere oplossing leidt...

Daarom sta ik ook sympathiek tegenover het ontwikkelen van onze eigen geestelijke en emotionele vermogens, bijvoorbeeld het ontwikkelen van empathie met patiënten. Dat is veel beter dan het reduceren van patiënten tot tussentijdse uitkomsten in termen van verwachte QALY's, op basis van modellen, algoritmes en protocollen - zoals in de Nederlandse gezondheidsindustrie helaas al veel te veel usance is geworden. Ook het verplegend personeel lijdt er vaak onder dat het ze door de protocollen niet meer wordt toegestaan om op een empathische manier zorg te verlenen. Vandaar dat juist verplegers die ongelooflijk veel kunnen betekenen voor patiënten, de getechnocratiseerde "zorg" vaarwel zeggen en proberen om op andere manieren echt iets voor hun medemensen te betekenen.

Bottom line: technici, wetenschappers, modelleurs en dergelijke zouden de beperkingen van hun eigen technologie en technieken moeten (h)(er)kennen, en voldoende weerstand moeten bieden aan op macht gerichte politici die technologie en technieken op schadelijke manieren proberen in te zetten. Hoe complexer de technologie, hoe belangrijker dat wordt. Wat we "AI" noemen, is zeer complexe technologie. Wat ik in de eerder genoemde roman "Klara en de zon" mooi vond, is dat Klara zich zeer bewust lijkt te zijn van "haar" eigen beperkingen, en juist op dat punt bijna menselijk wordt, in de beste zin van het woord.

M.J.
02-02-2022, 18:43 door Anoniem
Speculeren wat AI nou eigenlijk is of kan, is zonder grondige kennis van wiskunde (logica & set theory) volkomen zinloos.

Vergelijk de situatie met Antonio Diavolo (automaton) van Robert Houdin uit de 18e eeuw.
https://www.youtube.com/watch?v=Y4ktw1GFewA

Na het zien van deze pop gingen in die tijd ook geluiden op dat deze geautomatiseerde poppen de mens zou vervangen. Volkomen kul.
02-02-2022, 20:47 door S.A.T.A.N.
HAAAHAAAHAHAHA! (oh, sorry)
02-02-2022, 22:11 door Anoniem
Door Erik van Straten:

Echter, de term "hybrid" hoor ik de laatste tijd steeds vaker (in allerlei contexts), en zoals je schrijft liggen combinaties van technieken ook hier voor de hand. Meestal verhoogt "hybrid" de complexiteit - en dat is vaak één van de grote vijanden van verantwoordelijken voor privacy, security en/of kwaliteit.

+1
Regel 1 voor systeemontwikkeling: KISS! (Keep It Simpel Stupid!)
(of was het nu: Keep It Simpel and Stupid?...)

Zegt het VOORT, en trek het uit de KLEI.
03-02-2022, 08:34 door karma4 - Bijgewerkt: 03-02-2022, 08:35
Door Erik van Straten:
Statistisch ja, maar (ik ben geen "bijstandfraudedeskundige" en ben dus misschien onvolledig):
Statsisch heeft discriminant een heel andere betekenis dan het populaire taalgebruik.
https://www.sciencedirect.com/topics/agricultural-and-biological-sciences/discriminant-analysis
Mensen zijn niet exact gelijk, man/vrouw verschil is een biologisch iets. Het is doorgeschoten gelijkheidsheidsdenken om dat te willen ontkennen. Het is paternalistisch om je eigen ideaalbeeld aan andere op te leggen.

1) Je discrimineert als je op basis van gegevens van anderen, op basis van vooroordelen dus, een persoon -waar je verder nog niets van weet- anders behandelt.
Als inkomen woonplaats nederlanderschap al iets is wat niet bekend mag zijn voor een inkomensheffing dan wel toeslag, dan kun je het hele sociale ideaal opdoeken. Wat overblijft is enkele de grote ik privacy.


Of als blijkt dat de meer dan 50% van de mensen die kritiek hebben op de AP het niet zo nauw nemen met de AVG, en dat, als jij een functie hebt waarbij je verantwoordelijk bent voor de verwerking van persoonsgegevens, dus ook jij die AVG wel aan jouw laars zult lappen?
Ad-hominems om je gelijk te willen halen is wel heel erg zwak. Laten we het vooral bij onderbouwde informatie houden.
Dat hele gedoe waar je verwijst is veel te veel gestoeld op onderbuikgevoelens en media aandacht.
Het is nu net het grote probleem waar we in Nederland (en europa) mee te maken hebben. Zie de ander als vijand en praat een gweldsspiraal goed.

2) Potentieel frauderende personen met meer westerse voornamen en/of met een andere postcode kunnen zo een lagere prioriteit krijgen dan gerechtvaardigd is t.o.v. genoemde groepen.
We hebben nu eerder met een compleet andere iets te maken. frauderen mag als je maar uit een erkende minderheidsgroep komt, degenen die zich niet ergens op kunnen beroepen krijgen alles wel over zich heen.
Kijk naar Bij1 en Denk die overal racisme in zien waar een vergoeding en genoegdoening geëist wordt. Vraag Denk naar de Armeense kwestie en ze vinden dat beledigend.

3) Het risico bestaat dat je meer focust op kruimelfraude dan ernstiger criminaliteit (waaronder witte boorden-).
Ik zie dat inderdaad gebeuren. De witte boorden criminaliteit krijgt veel ruimte, dat lukt met het trekken van alle aandacht om die gevallen waar mensen denken dat de gewone man er voor opdraait.

b]4)[/b] Dit heeft hoogstwaarschijnlijk een zelfversterkend effect: je heet Ahmed en je woont in Rijnmond dus ondergemiddelde leskwaliteit, geen (fatsoenlijke) stageplaats,, ...
Ahmed heeft betere kansen dan Peter in die wijk en Susanne zal zekere slagen. Cijfers zeggen wel eens wat anders dan wat gewenst is. Zorgelijk vind ik op dit moment de positie van Syriers.

Nb. e.e.a. wil niet zeggen dat ik fraude en/of criminaliteit goedkeur (zeker niet), maar in een maatschappij waarin we zulke verschillen toestaan en zelfs aanjagen ben je wel heel erg naïef als je niet snapt waar dat gedrag vandaan komt.
Je zegt net niet maar.

I.r.t. filelengte durf ik de stelling wel aan dat als je iemand een tijdje de door bijv. TomTom en Google Maps aanbevolen routes voorlegt, zonder ...
En in plaats van aan een persoon zou je die vraag ook aan een (zelflerend) AI-systeem kunnen voorleggen, en dat systeem zou wel eens beter kunnen presteren dan een mens. Ik denk dat de grenzen steeds meer vervagen.
Ik had het genoemd wegens de achterliggende dubbele bodem. Je kunt het enkel bepalen door te gaan meten hoe mensen reizen. Verplaatstingsgegevens over voertuigen smartphones is de bron. Dat kan inderdaad goed geanonimiseerd.
Als je de AP moet geloven is dat met verplaatsingsgegevens altijd herleidbaar tot een persoon.

De angst onzekerheid en twijfel over iets zijn bekende strategieën om iets te frustreren.
03-02-2022, 09:40 door Anoniem
Door Erik van Straten: ... ik ben geen "bijstandfraudedeskundige" en ben dus misschien onvolledig

De verzameling van blauwdrukken voor nieuwe toeslagenaffaires begint gestaag uit:te dijen:

https://www.security.nl/posting/685506#posting700473


Door karma4: ... verplaatsingsgegevens altijd herleidbaar tot een persoon.

Vaak zijn mensen toch te herleiden via hun anonieme belgegevens, volgens een Nature studie:

https://www.security.nl/posting/739142#posting740515
03-02-2022, 12:05 door Anoniem
Het 'vluchten kan niet meer' begint. Heeft iedereen het al in de gaten of hobbelt men gewoon mee. Zijn we gezamenlijk zelf niet al The Terminator? Hoe kun je AI 'hinten' en 'linten'?
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.