We moeten denk ik heel goed doorprikken waar dit proces over gaat en waarom we met z'n allen niet meer precies zijn over een heldere doelmatigheid in relatie tot de stappen die zijn gemaakt in de big-data naar ai trein.
In het huidige AVG-specturm gaat het qua letter van wet/regelgeving nu nog heel duidelijk om het doel van/voor de gebruiker in relatie wat van de gebruiker/eigenaar wordt gevraagd / verwerkt.
Dit door middel van waarborgen in plaats dat een gebruiker/eigenaar verhaal moet halen als een verwerker over de scheef gaat.
En 1 van de waarborgen vloeit voort uit de houding van de wetgever dat de AVG geen moving the goalposts mocht worden.
Daarom moeten de rechten van het individu in beginsel ook geborgd zijn.
Zo weet ik uit de verhandelingen over de AVG medio 2017/2018 in de 2e kamer.
Kijk je naar bevindingen over die waarborgen, zie
https://research.vu.nl/ws/portalfiles/portal/135778118/P%20J%20C%20%20Olsthoorn%20-%20thesis.pdf dan staat daar bijvoorbeeld over:
Het principe is helder, maar wordt direct gevolgd door: ‘Hiertoe zou kunnen behoren het klikken op een vakje bij een bezoek aan een internetwebsite.’ Hiermee is Europa weer terug bij af, na jarenlange heftige lobbystrijd van voor- en tegenstanders van ‘het vinkje’. Conclusie: de AVG heeft de ruilhandel, persoonsgegevens verstrekken voor gratis diensten, nauwelijks aangetast. Ook de adjectieven ‘vrijelijk, specifiek, geïnformeerd en ondubbelzinnig’ als voorwaarden voor
toestemming van betrokkenen zijn voor discussie vatbaar in het kader van zeggenschap.
Ook staat er:
In hoeverre bedrijf en betrokkene elk verantwoordelijk is voor het voldoen aan deze voorwaarden was voortdurend onderwerp van debat en de AVG biedt geen uitsluitsel:
en
Maar is deze uitspraak nu een enorme opsteker voor de zeggenschap van individuen?
Privacyverklaringen vormen veelal een stilistisch gedrocht, geformuleerd om juridisch gedekt te zijn. Dat geldt volgens The New York Times ook voor veel van de 150 onderzochte privacyverklaringen van Amerikaanse concerns – die vaak ook op de Europese markt actief zijn. Ze zijn met een educatieve toets op toegankelijkheid en taal geanalyseerd. De meeste verklaringen gaan het vastgestelde niveau van begrijpelijkheid van een arts of zelfs advocaat te boven.145 Dit gebeurt niet per ongeluk.
Dan zie je dat de waarborgen voor gebruik van data nu al naar de opzet van de AVG TE ruim zijn omschreven.
Tegelijk maakt de AVG onderscheid in categorieën van persoonsgegevens, namelijk (gewone) persoonsgegevens en bijzondere persoonsgegevens "betrekking hebben op medische kenmerken, seks, ras, religie, biometrie/DNA en politiek/vakbond". Dat daarin onderscheid wordt gemaakt is al aanwijzing dat er wel degelijk aanleiding was voor een gelaagdheid.
Daar waar het bijvoorbeeld gaat om gegevens die iemand vrijelijk met de buitenwereld deelt en gegevens die laten we zeggen van "achter de voordeur" zijn en enkel iemand anders bekend kunnen worden na posten in de straat, gluren en/of aflsuiteren bij een raam of deur.
Waar toestemming voor het verwerken van "gegevens" toe kan leiden schetst het volgende voorbeeld:
Dan zijn er nog wat uitzonderingen, zoals in lid 2 sub e: ‘[…] de verwerking heeft betrekking op persoonsgegevens die kennelijk door de betrokkene openbaar zijn gemaakt’. Deze vrijwillige uitingen waren in 2019 onderzoeksonderwerp van de University of Pennsylvania. Onderzoekers beweerden met een analyse van 20 miljoen woorden in uitingen van deelnemers op Facebook te kunnen voorspellen of ze leden aan diabetes, angststoornissen, depressie en/of psychosen. ‘Social media data are a quantifiable link into the otherwise elusive daily lives of patients, providing an avenue for study and assessment of behavioral and environmental disease risk factors.’
Dit wijst op afgeleide gegevens die dus herleidbaar zijn vanuit een omgeving die niet met dat doeleinde vrijelijk waren gedeeld. Vrij paternalistisch denkend zou je kunnen denken, hé wat goed/handig dat iemand met een probleem gesignaleerd kan worden, dan kunnen "we" hulp organiseren. Maar, met die invalshoek als doeleinde zijn die gegevens NOOIT bewust gedeeld met de buitenwereld. Je hebt in kader van privacy ook het recht op ongestoord leven, dus niet een arts of medisch beroepsuitoefenaar die als het ware over je schouders meekijkt wanneer je medische hulp nodig zou gaan krijgen.
Bij
https://netherlands.representation.ec.europa.eu/nieuws/politieke-advertenties-op-social-media-mogen-nog-steeds-mits-transparant-2025-09-11_nl omschrijft de EU eisen die er worden gesteld aan politieke social media advertenties.
Die komen er ondermeer op neer dat je je ervoor moet kunnen afsluiten / ongestoord ervoor kan blijven als je dat zo regelt.
Als je als EU zijnde voor politieke overtuiging (een gevoelig iets, maar ook iets voor de greater good) de gebruiker die stuurmogelijkheid wilt geven waarom geef je die stuur mogelijkheid dan niet ook als het gaat om verwerking van digitale (anonieme) gegevens voor AI?
Ten eerste moeten we ons afvragen waarom een apart regime voor AI?
Als we niet wilden in ons land dat je gegevens zomaar voor bijvoorbeeld medisch onderzoek wordt gebruikt of dat je daar vrijelijk reclame op kan voeren zonder aan bepaalde voorwaarden te voldoen, waarom is AI als "toverdoos" dan niet net zo zwaar wegend?
Want laten we wel zijn, AI wordt nu breed gepromoot als iets waar "we" veel mee kunnen en aan zouden hebben.
Voor wetenschap geldt die afbakening en hergebruik instemming vereisten al, maar voor AI moet het dan soepeler dan nu worden en ook soepeler dan wetenschappelijk onderzoek en politieke advertentie targetting??
Vanwege een prangend gerechtvaardigd belang??
Dan denk ik direct aan de volgende discussie punten:
In de voorlichting van de Europese Commissie wordt het gerechtvaardigd belang ook vrij ruim uitgelegd, met als voorwaarde: ‘Uw onderneming/organisatie moet tevens controleren of door het nastreven van haar gerechtvaardigd belang niet ernstig afbreuk wordt gedaan aan de rechten en vrijheden van personen.’162 Wat is ernstig? En wie keurt hier het vlees?
Kortom, het doeleinde van een gerechtvaardigd belang is zeker niet vooraf voor iedereen even evident.
En hiermee zet de EC ook de poort open voor oprecht onderzoek door individuen naar bijvoorbeeld gegevens die Public Domain / Open Source beschikbaar zijn en of ALLE beschikbare gegevens particulier gebruikt mag worden voor the greater good?
Kijk je dan bijvoorbeeld naar onderzoeken daarover versus door de overheid gelieerde rapporten over de hogere sterftecijfers na 2023 dan daarvoor dan is meteen duidelijk dat er in onderzoeken en doeleinden via de "middelen" van onderzoek men niet ondermeer bij hetzelfde "greater good" uitkomt. Ten eerste is de onderzoeker bericht dat bepaalde van de gegevens niet openbaar mag worden gemaakt/verwerkt.
De andere groep onderzoeker gaat er van uit dat er geen aanleiding is voor een pas op de pas te maken met bepaalde gerichte gezondheidscampagne, de andere groep concludeert dat er juist wel aanleiding is daarvoor.
Die eerste groep ziet die "greater good" van de pas op de plaats dus juist niet. De andere wel. Voorlopig is de zaak nog niet beklonken en gaat die voort.
Het bovenstaande laat dus zien dat een particulier en door overheid gelieerd onderzoek voor een heel gerechtvaardigd belang "onze gezondheid" en "verminderen van overlijdens" als voorbeelden van goede doeleinden/gerechtvaardigd belang in een sector vertaald uit richtlijnen (bijvoorbeeld uit first do no Harm
https://medx.it.com/the-first-law-of-medicine-understanding-primum-non-nocere-in-pharmacology) tot heel verschillende bevindingen leiden.
Het moet dus minstens ook duidelijk zijn bij de doeleinde en het "belang" uit
welke agenda/beleid dat verwerken van gegevens voort komt.Ook moet de beoogde inzet van het doel
niet de ruimte beknotten voor nieuwe of toekomstige inzichten.Dat zou in principe immers haaks blijken te kunnen staan op het oorspronkelijke doel en dat haalt de legitimatie van inzet van het doel onderuit. Dat betekent dat er gaandeweg dus ook
een opt-out voor verwerking van AI doelen moet kunnen worden ge-effectueerd.
Dat zou bijvoorbeeld voor artiesten en hun royalties i.r.t het massale scrapen en verwerken voor eigen good ook wel fair kunnen zijn.
Die opt-out vereist natuurlijk een Interface waar die opt out niet diep is weggestopt in de menu structuur.
Bovendien vereist het technisch een AI waarbij niet alleen bronvermelding mogelijk is, naast de al reeds toegepast correcties bij fouten van generative AI maar dat dus ook de bron informatie van data-eigenaar traceerbaar blijft. Lijkt mij met vector databases waar veel AI LLM's mee werken data-technisch geen ondoenlijke zaak, wel zal dit meer controle vergen over de kwaliteit van de output van AI om zo achteraf de dataset bij te schaven door bepaalde input te laten afvallen.
Kan dit in de praktijk niet of wordt je er continu ingehaald met nieuwe prompts om in te stemmen met de nieuwe gebruikersvoorwaarden zoals Facebook bijvoorbeeld doet, dan is er dus geen onomstotelijk aantoonbaar gerechtvaardigd belang rondom AI.
Immers, hierboven is al aangetoond dat consensus over zelfs iets prangends als overlijdens niet tot eenduidige conclusies en gevolgtrekking leidt. Hoezo kan AI opeens nog belangwekkender gerechtvaardigd doel zijn dan dat?
En voor zover mij nu bekend afgaande op dit vonnis
https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Gerechtshoven/Gerechtshof-Amsterdam/Nieuws/Paginas/Collectieve-vorderingen-The-Privacy-Collective-tegen-Oracle-en-Salesforce-ontvankelijk.aspx dat inbreuk op iemands privacy wel erkende maar de schadeclaim tot op heden niet toewijst op grond van nog niet aangetoond opdrachtgeverschap in relatie tot het verhaal halen (o.b.v. ondermeer art. 80 lid 1 AVG) is een juridische gang wel heel ingewikkelde en kan het langdurende kwestie zijn.
Ook lijkt het erop dat het met nadruk dan om aanwijsbare schade moet gaan en niet via het privaatrecht boetedoenende vergoeding.
Dat maakt een zinnige functionerende opt-out die niet lijdt tot afsluiting van de ICT-dienst extra belangrijk.
Anders is AI niet meer optioneel maar als snel een on-afgebakend/onoverzichtelijk doel van zo'n ICT dienst bedrijf.
Ook moeten we in ons achterhoofd houden dat iemand als emiritus professor Bent Flyvbjerg van de Oxford Universiteit in
https://www.researchgate.net/publication/388889997_AI_as_Artificial_Ignorance stelt dat je dé facto aan AI niet zoveel hebt. Je moet AI continu controleren of het geen dingen bij verzint. Ook heb je relevante vakkennis nodig van het onderwerp waar je AI voor inzet wil je kunnen controleren of het allemaal klopt / niet verhaspeld of uit context raakt.
En als je toch die kennis en inzet al moet doen waarom zet je AI dan überhaupt in zo is een van zijn fundamentele vragen.
Dat roept dus ten slotte ook nog eens de hamvraag op of AI wel echt een belangwekkend fenomeen is om deze bepalingen allemaal van stal te halen??