image

Test Aankoop luidt noodklok over AVG-aanpassingen van Europese Commissie

maandag 5 januari 2026, 14:19 door Redactie, 15 reacties

De Belgische consumentenorganisatie Test Aankoop luidt de noodklok over Digital Omnibus. Met dit pakket van maatregelen wil de Europese Commissie de Algemene verordening gegevensbescherming (AVG) vereenvoudigen. Test Aankoop waarschuwt dat dit de privacybescherming van Europeanen kan verzwakken.

De Europese Commissie stelde Digital Omnibus op 19 november voor. De commissie wil hiermee naar eigen zeggen de administratieve last verminderen, de Europese concurrentiekracht versterken en de achterstand van de Europese Unie (EU) op zowel de Verenigde Staten (VS) als China op het gebied van kunstmatige intelligentie (AI) terugdringen.

Test Aankoop wijst erop dat de voorgestelde aanpassingen de privacybescherming kunnen verzwakken. Zo was tot nu toe vastgelegd dat bedrijven je gegevens zonder expliciete toestemming niet mogen gebruiken. Digital Omnibus brengt hierin verandering. Techbedrijven zouden zich voortaan kunnen beroepen op een 'gerechtvaardigd belang' en jouw gegevens zonder toestemming vooraf gebruiken voor het trainen van AI-modellen.

Daarnaast stelt de Europese Commissie voor bepaalde kernregels van de AI Act uit te stellen. Zo wil de commissie een overgangsperiode tot 2028 instellen voor sommige categorieën van hoog-risico-AI. Ook worden bepaalde transparantieverplichtingen geschrapt, waaronder de registratie van deze systemen in een Europese databank. Het toezicht wil de Europese Commissie centraliseren bij het Europese AI-kantoor.

Een ander belangrijk aandachtspunt in Digital Omnibus is het gebruik van cookiebanners. De Europese Commissie wil dat Europeanen met één klik hun voorkeur kunnen aangeven en deze voorkeur kunnen opslaan in hun webbrowser of op hun besturingssysteem. Daarnaast wil het bepaalde 'laag-risico' trackers voor onder meer doelgroepmetingen zonder expliciete toestemming toestaan. "Op papier zou surfen vlotter verlopen. Maar het gevaar is echt: het ontbreken van een weigering zou kunnen worden gezien als een toestemming, waardoor jouw reële controle over jouw gegevens verzwakt wordt", aldus Test Aankoop.

De consumentenorganisatie waarschuwt dat Digital Omnibus kan leiden tot minder controle over het gebruik van je gegevens en minder goede informatie over AI-systemen die belangrijke beslissingen beïnvloeden. Daarnaast kan een situatie ontstaan waarbij stilzwijgen als toestemming geldt.

Reacties (15)
05-01-2026, 14:43 door Anoniem
Er is al nauwelijks privacy bescherming. En dan moet dat NOG zwakker?
Elke keer weer: wat doen we nog in die EU? Erger nog... 'men' stemt partijen als D66...

Mensen, wakker worden. De EU ziet Noord-Korea als voorbeeld, niet als waarschuwing.
05-01-2026, 14:45 door Anoniem
Alsof Europa iets geeft om de privacy van haar burgers. Als dat echt zo was zouden ze de AVG niet verzwakken en dingen zoals leeftijdsverificatie en chat control al helemaal niet overwegen.
05-01-2026, 14:57 door Anoniem
Wat valt er nog over te zeggen? Het EU-regime is tegen democratie en rechtsstaat. Het EU-regime stelt zichzelf in dienst van Big Tech en levert alle inwoners van de EU uit aan Big Tech.
Dit gaat de EU helemaal niet helpen om zelf sterker te worden op technologisch gebied. Het gaat alleen de Amerikaanse en Chinese Big Tech helpen.
05-01-2026, 15:39 door Anoniem
Ah, vanwege een "wapenwetrace op AI" moet onze privacy achteruit?
Misschien is het beter voor de regering om even te wachten wie er wint en dan het winnende model aan te nemen?
De AI-bubbel gaat vroeg of laat barsten, en dan kost het ons handenvol belastinggeld omdat de overheid er teveel geld in heeft geinvensteerd...
Wacht nou rustig af, en kjjk het aan zou ik zeggen, en vooral; VERSPIL ONS BELASTINGGELD NIET!
Dankuwel, alstublieft. (-:
05-01-2026, 17:42 door Anoniem
Door Anoniem: Alsof Europa iets geeft om de privacy van haar burgers. Als dat echt zo was zouden ze de AVG niet verzwakken en dingen zoals leeftijdsverificatie en chat control al helemaal niet overwegen.
Zonder Europa hadden we om te beginnen helemaal geen AVG gehad. Of had je de illusie dat de pro-bedrijfsleven-partijen die in Nederland vaak veel in de melk te brokkelen hebben een lichtend voorbeeld in dat soort dingen zijn?

Door Anoniem: Wat valt er nog over te zeggen? Het EU-regime is tegen democratie en rechtsstaat. Het EU-regime stelt zichzelf in dienst van Big Tech en levert alle inwoners van de EU uit aan Big Tech.
Dit is een voorstel van de Europese Commissie. Dat is niet de hele EU. Dit moet nog langs de lidstaten en het Europarlement. Als de EC zich helemaal niets meer van de rechtsstaat zou aantrekken zou dat allemaal doodleuk gepasseerd worden. Dat doen ze niet, ze stellen een wetswijziging voor. Dit is een voorstel, nog lang geen voldongen feit.

Dit gaat de EU helemaal niet helpen om zelf sterker te worden op technologisch gebied. Het gaat alleen de Amerikaanse en Chinese Big Tech helpen.
Ik denk dat ze inzetten op een bubbel die vermoedelijk binnenkort gaat barsten. Meedoen aan de hysterie lijkt mij niet bepaald de verstandigste aanpak. Het komt op mij over alsof ze zich gek laten maken en in laten pakken door degenen die er schatrijk mee worden. Een vorm van FOMO, fear of missing out.
05-01-2026, 18:08 door Anoniem
Europa != Europeese Unie (EU). Helaas behoort Nederland tot het EU projekt en zijn wij aan de wolven overgeleverd.
05-01-2026, 21:21 door Anoniem
We moeten denk ik heel goed doorprikken waar dit proces over gaat en waarom we met z'n allen niet meer precies zijn over een heldere doelmatigheid in relatie tot de stappen die zijn gemaakt in de big-data naar ai trein.

In het huidige AVG-specturm gaat het qua letter van wet/regelgeving nu nog heel duidelijk om het doel van/voor de gebruiker in relatie wat van de gebruiker/eigenaar wordt gevraagd / verwerkt.
Dit door middel van waarborgen in plaats dat een gebruiker/eigenaar verhaal moet halen als een verwerker over de scheef gaat.
En 1 van de waarborgen vloeit voort uit de houding van de wetgever dat de AVG geen moving the goalposts mocht worden.
Daarom moeten de rechten van het individu in beginsel ook geborgd zijn.
Zo weet ik uit de verhandelingen over de AVG medio 2017/2018 in de 2e kamer.

Kijk je naar bevindingen over die waarborgen, zie https://research.vu.nl/ws/portalfiles/portal/135778118/P%20J%20C%20%20Olsthoorn%20-%20thesis.pdf dan staat daar bijvoorbeeld over:
Het principe is helder, maar wordt direct gevolgd door: ‘Hiertoe zou kunnen behoren het klikken op een vakje bij een bezoek aan een internetwebsite.’ Hiermee is Europa weer terug bij af, na jarenlange heftige lobbystrijd van voor- en tegenstanders van ‘het vinkje’. Conclusie: de AVG heeft de ruilhandel, persoonsgegevens verstrekken voor gratis diensten, nauwelijks aangetast. Ook de adjectieven ‘vrijelijk, specifiek, geïnformeerd en ondubbelzinnig’ als voorwaarden voor
toestemming van betrokkenen zijn voor discussie vatbaar in het kader van zeggenschap.
Ook staat er:
In hoeverre bedrijf en betrokkene elk verantwoordelijk is voor het voldoen aan deze voorwaarden was voortdurend onderwerp van debat en de AVG biedt geen uitsluitsel:
en
Maar is deze uitspraak nu een enorme opsteker voor de zeggenschap van individuen?
Privacyverklaringen vormen veelal een stilistisch gedrocht, geformuleerd om juridisch gedekt te zijn. Dat geldt volgens The New York Times ook voor veel van de 150 onderzochte privacyverklaringen van Amerikaanse concerns – die vaak ook op de Europese markt actief zijn. Ze zijn met een educatieve toets op toegankelijkheid en taal geanalyseerd. De meeste verklaringen gaan het vastgestelde niveau van begrijpelijkheid van een arts of zelfs advocaat te boven.145 Dit gebeurt niet per ongeluk.

Dan zie je dat de waarborgen voor gebruik van data nu al naar de opzet van de AVG TE ruim zijn omschreven.
Tegelijk maakt de AVG onderscheid in categorieën van persoonsgegevens, namelijk (gewone) persoonsgegevens en bijzondere persoonsgegevens "betrekking hebben op medische kenmerken, seks, ras, religie, biometrie/DNA en politiek/vakbond". Dat daarin onderscheid wordt gemaakt is al aanwijzing dat er wel degelijk aanleiding was voor een gelaagdheid.
Daar waar het bijvoorbeeld gaat om gegevens die iemand vrijelijk met de buitenwereld deelt en gegevens die laten we zeggen van "achter de voordeur" zijn en enkel iemand anders bekend kunnen worden na posten in de straat, gluren en/of aflsuiteren bij een raam of deur.

Waar toestemming voor het verwerken van "gegevens" toe kan leiden schetst het volgende voorbeeld:
Dan zijn er nog wat uitzonderingen, zoals in lid 2 sub e: ‘[…] de verwerking heeft betrekking op persoonsgegevens die kennelijk door de betrokkene openbaar zijn gemaakt’. Deze vrijwillige uitingen waren in 2019 onderzoeksonderwerp van de University of Pennsylvania. Onderzoekers beweerden met een analyse van 20 miljoen woorden in uitingen van deelnemers op Facebook te kunnen voorspellen of ze leden aan diabetes, angststoornissen, depressie en/of psychosen. ‘Social media data are a quantifiable link into the otherwise elusive daily lives of patients, providing an avenue for study and assessment of behavioral and environmental disease risk factors.’
Dit wijst op afgeleide gegevens die dus herleidbaar zijn vanuit een omgeving die niet met dat doeleinde vrijelijk waren gedeeld. Vrij paternalistisch denkend zou je kunnen denken, hé wat goed/handig dat iemand met een probleem gesignaleerd kan worden, dan kunnen "we" hulp organiseren. Maar, met die invalshoek als doeleinde zijn die gegevens NOOIT bewust gedeeld met de buitenwereld. Je hebt in kader van privacy ook het recht op ongestoord leven, dus niet een arts of medisch beroepsuitoefenaar die als het ware over je schouders meekijkt wanneer je medische hulp nodig zou gaan krijgen.

Bij https://netherlands.representation.ec.europa.eu/nieuws/politieke-advertenties-op-social-media-mogen-nog-steeds-mits-transparant-2025-09-11_nl omschrijft de EU eisen die er worden gesteld aan politieke social media advertenties.
Die komen er ondermeer op neer dat je je ervoor moet kunnen afsluiten / ongestoord ervoor kan blijven als je dat zo regelt.

Als je als EU zijnde voor politieke overtuiging (een gevoelig iets, maar ook iets voor de greater good) de gebruiker die stuurmogelijkheid wilt geven waarom geef je die stuur mogelijkheid dan niet ook als het gaat om verwerking van digitale (anonieme) gegevens voor AI?
Ten eerste moeten we ons afvragen waarom een apart regime voor AI?
Als we niet wilden in ons land dat je gegevens zomaar voor bijvoorbeeld medisch onderzoek wordt gebruikt of dat je daar vrijelijk reclame op kan voeren zonder aan bepaalde voorwaarden te voldoen, waarom is AI als "toverdoos" dan niet net zo zwaar wegend?
Want laten we wel zijn, AI wordt nu breed gepromoot als iets waar "we" veel mee kunnen en aan zouden hebben.
Voor wetenschap geldt die afbakening en hergebruik instemming vereisten al, maar voor AI moet het dan soepeler dan nu worden en ook soepeler dan wetenschappelijk onderzoek en politieke advertentie targetting??
Vanwege een prangend gerechtvaardigd belang??
Dan denk ik direct aan de volgende discussie punten:
In de voorlichting van de Europese Commissie wordt het gerechtvaardigd belang ook vrij ruim uitgelegd, met als voorwaarde: ‘Uw onderneming/organisatie moet tevens controleren of door het nastreven van haar gerechtvaardigd belang niet ernstig afbreuk wordt gedaan aan de rechten en vrijheden van personen.’162 Wat is ernstig? En wie keurt hier het vlees?
Kortom, het doeleinde van een gerechtvaardigd belang is zeker niet vooraf voor iedereen even evident.
En hiermee zet de EC ook de poort open voor oprecht onderzoek door individuen naar bijvoorbeeld gegevens die Public Domain / Open Source beschikbaar zijn en of ALLE beschikbare gegevens particulier gebruikt mag worden voor the greater good?

Kijk je dan bijvoorbeeld naar onderzoeken daarover versus door de overheid gelieerde rapporten over de hogere sterftecijfers na 2023 dan daarvoor dan is meteen duidelijk dat er in onderzoeken en doeleinden via de "middelen" van onderzoek men niet ondermeer bij hetzelfde "greater good" uitkomt. Ten eerste is de onderzoeker bericht dat bepaalde van de gegevens niet openbaar mag worden gemaakt/verwerkt.
De andere groep onderzoeker gaat er van uit dat er geen aanleiding is voor een pas op de pas te maken met bepaalde gerichte gezondheidscampagne, de andere groep concludeert dat er juist wel aanleiding is daarvoor.
Die eerste groep ziet die "greater good" van de pas op de plaats dus juist niet. De andere wel. Voorlopig is de zaak nog niet beklonken en gaat die voort.

Het bovenstaande laat dus zien dat een particulier en door overheid gelieerd onderzoek voor een heel gerechtvaardigd belang "onze gezondheid" en "verminderen van overlijdens" als voorbeelden van goede doeleinden/gerechtvaardigd belang in een sector vertaald uit richtlijnen (bijvoorbeeld uit first do no Harm https://medx.it.com/the-first-law-of-medicine-understanding-primum-non-nocere-in-pharmacology) tot heel verschillende bevindingen leiden.
Het moet dus minstens ook duidelijk zijn bij de doeleinde en het "belang" uit welke agenda/beleid dat verwerken van gegevens voort komt.
Ook moet de beoogde inzet van het doel niet de ruimte beknotten voor nieuwe of toekomstige inzichten.
Dat zou in principe immers haaks blijken te kunnen staan op het oorspronkelijke doel en dat haalt de legitimatie van inzet van het doel onderuit. Dat betekent dat er gaandeweg dus ook een opt-out voor verwerking van AI doelen moet kunnen worden ge-effectueerd.
Dat zou bijvoorbeeld voor artiesten en hun royalties i.r.t het massale scrapen en verwerken voor eigen good ook wel fair kunnen zijn.
Die opt-out vereist natuurlijk een Interface waar die opt out niet diep is weggestopt in de menu structuur.
Bovendien vereist het technisch een AI waarbij niet alleen bronvermelding mogelijk is, naast de al reeds toegepast correcties bij fouten van generative AI maar dat dus ook de bron informatie van data-eigenaar traceerbaar blijft. Lijkt mij met vector databases waar veel AI LLM's mee werken data-technisch geen ondoenlijke zaak, wel zal dit meer controle vergen over de kwaliteit van de output van AI om zo achteraf de dataset bij te schaven door bepaalde input te laten afvallen.
Kan dit in de praktijk niet of wordt je er continu ingehaald met nieuwe prompts om in te stemmen met de nieuwe gebruikersvoorwaarden zoals Facebook bijvoorbeeld doet, dan is er dus geen onomstotelijk aantoonbaar gerechtvaardigd belang rondom AI.
Immers, hierboven is al aangetoond dat consensus over zelfs iets prangends als overlijdens niet tot eenduidige conclusies en gevolgtrekking leidt. Hoezo kan AI opeens nog belangwekkender gerechtvaardigd doel zijn dan dat?
En voor zover mij nu bekend afgaande op dit vonnis https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Gerechtshoven/Gerechtshof-Amsterdam/Nieuws/Paginas/Collectieve-vorderingen-The-Privacy-Collective-tegen-Oracle-en-Salesforce-ontvankelijk.aspx dat inbreuk op iemands privacy wel erkende maar de schadeclaim tot op heden niet toewijst op grond van nog niet aangetoond opdrachtgeverschap in relatie tot het verhaal halen (o.b.v. ondermeer art. 80 lid 1 AVG) is een juridische gang wel heel ingewikkelde en kan het langdurende kwestie zijn.
Ook lijkt het erop dat het met nadruk dan om aanwijsbare schade moet gaan en niet via het privaatrecht boetedoenende vergoeding.
Dat maakt een zinnige functionerende opt-out die niet lijdt tot afsluiting van de ICT-dienst extra belangrijk.
Anders is AI niet meer optioneel maar als snel een on-afgebakend/onoverzichtelijk doel van zo'n ICT dienst bedrijf.

Ook moeten we in ons achterhoofd houden dat iemand als emiritus professor Bent Flyvbjerg van de Oxford Universiteit in
https://www.researchgate.net/publication/388889997_AI_as_Artificial_Ignorance stelt dat je dé facto aan AI niet zoveel hebt. Je moet AI continu controleren of het geen dingen bij verzint. Ook heb je relevante vakkennis nodig van het onderwerp waar je AI voor inzet wil je kunnen controleren of het allemaal klopt / niet verhaspeld of uit context raakt.
En als je toch die kennis en inzet al moet doen waarom zet je AI dan überhaupt in zo is een van zijn fundamentele vragen.

Dat roept dus ten slotte ook nog eens de hamvraag op of AI wel echt een belangwekkend fenomeen is om deze bepalingen allemaal van stal te halen??
05-01-2026, 21:40 door Anoniem
We moeten ons echt afvragen waarom deze verbijzondering van bestaande regelgeving. Het begint er al mee dat AVG een verbijzondering is op het jijn & dein en het niet achter of bij de voordeur snuffelen als inbreuken op de persoonlijke levenssfeer dat in Nederland al heel lang geldt en nog steeds volstaat. Boeven pak je niet met een toetsenbord maar met handboeien arrestatie, in lijn daarmee moet ook het juridische beginsel eindelijk eens de juridische staatsrechtelijke norm worden dat wat je bij wetgeving voor analoge situaties wel/niet regelt en toestaat of strafbaar maakt dat je dat in digitale omgevingen niet via een tussenweg van allerlei wetjes en regelgevinkjes opeens diametraal anders gaat regelen. Dat was namelijk ook expliciet het uitgangspunt dat niet moest met de AVG volgens toenmalig minister Ferd Grapperhaus.
Het wordt dus hoog tijd dat we onze collectief geheugen (digitaal EN analoog) beter bestuderen eer er weer iets extra's wordt gelanceerd. Dat gaat helemaal 'n eigen en ontsporend leven leiden namelijk.
05-01-2026, 21:41 door Anoniem
De EU verraadt ons? Wie zit aan het stuur? Zij gaan mijn stem nooit meer krijgen! De DSA, DMA en GDPR zijn heilig, en ze moeten strenger worden niet uitgehold! Het feit dat Trump te keer gaat, wil zeggen dat die wetten een doorn in zijn oog zijn, dat ze goed zijn. Waarom hol je die dan uit, in plaats van deze te versterken mevr. Von Der Leyen? Dit is vergelijkbaar, maar erger dan het feit dat de wolf moet verdwijnen omdat uw ponyke opgegeten is!
05-01-2026, 22:26 door Anoniem
Door Anoniem: We moeten denk ik heel goed doorprikken waar dit proces over gaat en waarom we met z'n allen niet meer precies zijn over een heldere doelmatigheid in relatie tot de stappen die zijn gemaakt in de big-data naar ai trein.

In het huidige AVG-specturm gaat het qua letter van wet/regelgeving nu nog heel duidelijk om het doel van/voor de gebruiker in relatie wat van de gebruiker/eigenaar wordt gevraagd / verwerkt.
Dit door middel van waarborgen in plaats dat een gebruiker/eigenaar verhaal moet halen als een verwerker over de scheef gaat.
En 1 van de waarborgen vloeit voort uit de houding van de wetgever dat de AVG geen moving the goalposts mocht worden.
Daarom moeten de rechten van het individu in beginsel ook geborgd zijn.
Zo weet ik uit de verhandelingen over de AVG medio 2017/2018 in de 2e kamer.

Kijk je naar bevindingen over die waarborgen, zie https://research.vu.nl/ws/portalfiles/portal/135778118/P%20J%20C%20%20Olsthoorn%20-%20thesis.pdf dan staat daar bijvoorbeeld over:
Het principe is helder, maar wordt direct gevolgd door: ‘Hiertoe zou kunnen behoren het klikken op een vakje bij een bezoek aan een internetwebsite.’ Hiermee is Europa weer terug bij af, na jarenlange heftige lobbystrijd van voor- en tegenstanders van ‘het vinkje’. Conclusie: de AVG heeft de ruilhandel, persoonsgegevens verstrekken voor gratis diensten, nauwelijks aangetast. Ook de adjectieven ‘vrijelijk, specifiek, geïnformeerd en ondubbelzinnig’ als voorwaarden voor
toestemming van betrokkenen zijn voor discussie vatbaar in het kader van zeggenschap.
Ook staat er:
In hoeverre bedrijf en betrokkene elk verantwoordelijk is voor het voldoen aan deze voorwaarden was voortdurend onderwerp van debat en de AVG biedt geen uitsluitsel:
en
Maar is deze uitspraak nu een enorme opsteker voor de zeggenschap van individuen?
Privacyverklaringen vormen veelal een stilistisch gedrocht, geformuleerd om juridisch gedekt te zijn. Dat geldt volgens The New York Times ook voor veel van de 150 onderzochte privacyverklaringen van Amerikaanse concerns – die vaak ook op de Europese markt actief zijn. Ze zijn met een educatieve toets op toegankelijkheid en taal geanalyseerd. De meeste verklaringen gaan het vastgestelde niveau van begrijpelijkheid van een arts of zelfs advocaat te boven.145 Dit gebeurt niet per ongeluk.

Dan zie je dat de waarborgen voor gebruik van data nu al naar de opzet van de AVG TE ruim zijn omschreven.
Tegelijk maakt de AVG onderscheid in categorieën van persoonsgegevens, namelijk (gewone) persoonsgegevens en bijzondere persoonsgegevens "betrekking hebben op medische kenmerken, seks, ras, religie, biometrie/DNA en politiek/vakbond". Dat daarin onderscheid wordt gemaakt is al aanwijzing dat er wel degelijk aanleiding was voor een gelaagdheid.
Daar waar het bijvoorbeeld gaat om gegevens die iemand vrijelijk met de buitenwereld deelt en gegevens die laten we zeggen van "achter de voordeur" zijn en enkel iemand anders bekend kunnen worden na posten in de straat, gluren en/of aflsuiteren bij een raam of deur.

Waar toestemming voor het verwerken van "gegevens" toe kan leiden schetst het volgende voorbeeld:
Dan zijn er nog wat uitzonderingen, zoals in lid 2 sub e: ‘[…] de verwerking heeft betrekking op persoonsgegevens die kennelijk door de betrokkene openbaar zijn gemaakt’. Deze vrijwillige uitingen waren in 2019 onderzoeksonderwerp van de University of Pennsylvania. Onderzoekers beweerden met een analyse van 20 miljoen woorden in uitingen van deelnemers op Facebook te kunnen voorspellen of ze leden aan diabetes, angststoornissen, depressie en/of psychosen. ‘Social media data are a quantifiable link into the otherwise elusive daily lives of patients, providing an avenue for study and assessment of behavioral and environmental disease risk factors.’
Dit wijst op afgeleide gegevens die dus herleidbaar zijn vanuit een omgeving die niet met dat doeleinde vrijelijk waren gedeeld. Vrij paternalistisch denkend zou je kunnen denken, hé wat goed/handig dat iemand met een probleem gesignaleerd kan worden, dan kunnen "we" hulp organiseren. Maar, met die invalshoek als doeleinde zijn die gegevens NOOIT bewust gedeeld met de buitenwereld. Je hebt in kader van privacy ook het recht op ongestoord leven, dus niet een arts of medisch beroepsuitoefenaar die als het ware over je schouders meekijkt wanneer je medische hulp nodig zou gaan krijgen.

Bij https://netherlands.representation.ec.europa.eu/nieuws/politieke-advertenties-op-social-media-mogen-nog-steeds-mits-transparant-2025-09-11_nl omschrijft de EU eisen die er worden gesteld aan politieke social media advertenties.
Die komen er ondermeer op neer dat je je ervoor moet kunnen afsluiten / ongestoord ervoor kan blijven als je dat zo regelt.

Als je als EU zijnde voor politieke overtuiging (een gevoelig iets, maar ook iets voor de greater good) de gebruiker die stuurmogelijkheid wilt geven waarom geef je die stuur mogelijkheid dan niet ook als het gaat om verwerking van digitale (anonieme) gegevens voor AI?
Ten eerste moeten we ons afvragen waarom een apart regime voor AI?
Als we niet wilden in ons land dat je gegevens zomaar voor bijvoorbeeld medisch onderzoek wordt gebruikt of dat je daar vrijelijk reclame op kan voeren zonder aan bepaalde voorwaarden te voldoen, waarom is AI als "toverdoos" dan niet net zo zwaar wegend?
Want laten we wel zijn, AI wordt nu breed gepromoot als iets waar "we" veel mee kunnen en aan zouden hebben.
Voor wetenschap geldt die afbakening en hergebruik instemming vereisten al, maar voor AI moet het dan soepeler dan nu worden en ook soepeler dan wetenschappelijk onderzoek en politieke advertentie targetting??
Vanwege een prangend gerechtvaardigd belang??
Dan denk ik direct aan de volgende discussie punten:
In de voorlichting van de Europese Commissie wordt het gerechtvaardigd belang ook vrij ruim uitgelegd, met als voorwaarde: ‘Uw onderneming/organisatie moet tevens controleren of door het nastreven van haar gerechtvaardigd belang niet ernstig afbreuk wordt gedaan aan de rechten en vrijheden van personen.’162 Wat is ernstig? En wie keurt hier het vlees?
Kortom, het doeleinde van een gerechtvaardigd belang is zeker niet vooraf voor iedereen even evident.
En hiermee zet de EC ook de poort open voor oprecht onderzoek door individuen naar bijvoorbeeld gegevens die Public Domain / Open Source beschikbaar zijn en of ALLE beschikbare gegevens particulier gebruikt mag worden voor the greater good?

Kijk je dan bijvoorbeeld naar onderzoeken daarover versus door de overheid gelieerde rapporten over de hogere sterftecijfers na 2023 dan daarvoor dan is meteen duidelijk dat er in onderzoeken en doeleinden via de "middelen" van onderzoek men niet ondermeer bij hetzelfde "greater good" uitkomt. Ten eerste is de onderzoeker bericht dat bepaalde van de gegevens niet openbaar mag worden gemaakt/verwerkt.
De andere groep onderzoeker gaat er van uit dat er geen aanleiding is voor een pas op de pas te maken met bepaalde gerichte gezondheidscampagne, de andere groep concludeert dat er juist wel aanleiding is daarvoor.
Die eerste groep ziet die "greater good" van de pas op de plaats dus juist niet. De andere wel. Voorlopig is de zaak nog niet beklonken en gaat die voort.

Het bovenstaande laat dus zien dat een particulier en door overheid gelieerd onderzoek voor een heel gerechtvaardigd belang "onze gezondheid" en "verminderen van overlijdens" als voorbeelden van goede doeleinden/gerechtvaardigd belang in een sector vertaald uit richtlijnen (bijvoorbeeld uit first do no Harm https://medx.it.com/the-first-law-of-medicine-understanding-primum-non-nocere-in-pharmacology) tot heel verschillende bevindingen leiden.
Het moet dus minstens ook duidelijk zijn bij de doeleinde en het "belang" uit welke agenda/beleid dat verwerken van gegevens voort komt.
Ook moet de beoogde inzet van het doel niet de ruimte beknotten voor nieuwe of toekomstige inzichten.
Dat zou in principe immers haaks blijken te kunnen staan op het oorspronkelijke doel en dat haalt de legitimatie van inzet van het doel onderuit. Dat betekent dat er gaandeweg dus ook een opt-out voor verwerking van AI doelen moet kunnen worden ge-effectueerd.
Dat zou bijvoorbeeld voor artiesten en hun royalties i.r.t het massale scrapen en verwerken voor eigen good ook wel fair kunnen zijn.
Die opt-out vereist natuurlijk een Interface waar die opt out niet diep is weggestopt in de menu structuur.
Bovendien vereist het technisch een AI waarbij niet alleen bronvermelding mogelijk is, naast de al reeds toegepast correcties bij fouten van generative AI maar dat dus ook de bron informatie van data-eigenaar traceerbaar blijft. Lijkt mij met vector databases waar veel AI LLM's mee werken data-technisch geen ondoenlijke zaak, wel zal dit meer controle vergen over de kwaliteit van de output van AI om zo achteraf de dataset bij te schaven door bepaalde input te laten afvallen.
Kan dit in de praktijk niet of wordt je er continu ingehaald met nieuwe prompts om in te stemmen met de nieuwe gebruikersvoorwaarden zoals Facebook bijvoorbeeld doet, dan is er dus geen onomstotelijk aantoonbaar gerechtvaardigd belang rondom AI.
Immers, hierboven is al aangetoond dat consensus over zelfs iets prangends als overlijdens niet tot eenduidige conclusies en gevolgtrekking leidt. Hoezo kan AI opeens nog belangwekkender gerechtvaardigd doel zijn dan dat?
En voor zover mij nu bekend afgaande op dit vonnis https://www.rechtspraak.nl/Organisatie-en-contact/Organisatie/Gerechtshoven/Gerechtshof-Amsterdam/Nieuws/Paginas/Collectieve-vorderingen-The-Privacy-Collective-tegen-Oracle-en-Salesforce-ontvankelijk.aspx dat inbreuk op iemands privacy wel erkende maar de schadeclaim tot op heden niet toewijst op grond van nog niet aangetoond opdrachtgeverschap in relatie tot het verhaal halen (o.b.v. ondermeer art. 80 lid 1 AVG) is een juridische gang wel heel ingewikkelde en kan het langdurende kwestie zijn.
Ook lijkt het erop dat het met nadruk dan om aanwijsbare schade moet gaan en niet via het privaatrecht boetedoenende vergoeding.
Dat maakt een zinnige functionerende opt-out die niet lijdt tot afsluiting van de ICT-dienst extra belangrijk.
Anders is AI niet meer optioneel maar als snel een on-afgebakend/onoverzichtelijk doel van zo'n ICT dienst bedrijf.

Ook moeten we in ons achterhoofd houden dat iemand als emiritus professor Bent Flyvbjerg van de Oxford Universiteit in
https://www.researchgate.net/publication/388889997_AI_as_Artificial_Ignorance stelt dat je dé facto aan AI niet zoveel hebt. Je moet AI continu controleren of het geen dingen bij verzint. Ook heb je relevante vakkennis nodig van het onderwerp waar je AI voor inzet wil je kunnen controleren of het allemaal klopt / niet verhaspeld of uit context raakt.
En als je toch die kennis en inzet al moet doen waarom zet je AI dan überhaupt in zo is een van zijn fundamentele vragen.

Dat roept dus ten slotte ook nog eens de hamvraag op of AI wel echt een belangwekkend fenomeen is om deze bepalingen allemaal van stal te halen??

Mand!!
Gisteren, 09:52 door Anoniem
Door Anoniem: De EU verraadt ons? Wie zit aan het stuur? Zij gaan mijn stem nooit meer krijgen! De DSA, DMA en GDPR zijn heilig, en ze moeten strenger worden niet uitgehold! Het feit dat Trump te keer gaat, wil zeggen dat die wetten een doorn in zijn oog zijn, dat ze goed zijn. Waarom hol je die dan uit, in plaats van deze te versterken mevr. Von Der Leyen? Dit is vergelijkbaar, maar erger dan het feit dat de wolf moet verdwijnen omdat uw ponyke opgegeten is!

Was het je al opgevallen dat sinds er meer rechts/nationalistisch gestemd wordt, dit soort omnibus wetgevingen in ene kans van slagen hebben? Toen mensen nog links en progressief stemden zijn wetgevingen als AVG, de AI act en DSI bedacht en doorgevoerd. Nu met een iets rechtsere samenstelling worden ze al afgeschaft.
Als je nu nog niet geloofd dat de EU dus een democratische organisatie is, dan moet je misschien naar de opticien. Hoe je stemt, doet er toe. Kan het nog duidelijker?
Gisteren, 11:55 door Anoniem
Door Anoniem: Mand!!
Ik zal wel oud worden, maar kan je uitleggen wat je daarmee bedoelt? Dit komt op mij over alsof je net zo goed "Deur!!" of "Fiets!!" had kunnen roepen.
Gisteren, 12:25 door Anoniem
Door Anoniem: Ook moeten we in ons achterhoofd houden dat iemand als emiritus professor Bent Flyvbjerg van de Oxford Universiteit in
https://www.researchgate.net/publication/388889997_AI_as_Artificial_Ignorance stelt dat je dé facto aan AI niet zoveel hebt. Je moet AI continu controleren of het geen dingen bij verzint. Ook heb je relevante vakkennis nodig van het onderwerp waar je AI voor inzet wil je kunnen controleren of het allemaal klopt / niet verhaspeld of uit context raakt.
En als je toch die kennis en inzet al moet doen waarom zet je AI dan überhaupt in zo is een van zijn fundamentele vragen.
Inderdaad.

Het antwoord zit denk ik in dat er mensen zijn die stinkend rijk worden van dit maximaal de wereld in schuiven en mensen die denken dat ze de boot missen als ze het negeren.

Dat de mensen die dit de wereld in schuiven het doen om er binnen mee te lopen, en niet om iets neer te zetten dat werkelijk wat toevoegt (wat ook weer niet betekent dat het helemaal niets voorstelt), dat kan je denk ik zien aan hoe ze het hebben aangepakt. De LLM's zijn getraind door zo veel mogelijk content van het internet af te schrapen, en door het breed ter beschikking te stellen was natuurlijk heel voorspelbaar dat nu heel veel nieuwe door AI gegenereerde content aan het internet wordt toegevoegd. Daarmee wordt het toegevoegd aan de basis waarmee de volgende generatie van LLM's getraind wordt. De LLM's worden dus in steeds grotere mate gevoed met wat LLM's zelf hebben geproduceerd.

Dat gaat niet goed. Er is alweer een poosje terug geconstateerd dat de nieuwere GPT-generaties aanzienlijk meer "hallucineren" dan de generaties ervoor. En het is heel verklaarbaar dat dat gebeurt. LLM's voegen namelijk zelf geen nieuwe kennis toe, het is een soort selectie uit wat er al in zit die getriggerd wordt door de invoer van een gebruiker. Dat gebeurt op een razend knappe manier, maar het is geen nieuwe informatie, het is wat al in het systeem zit, en dus wat al zat in al die teksten waarmee het systeem gevoed is. Maar behalve kloppende dingen te produceren hallucineert het ook, het knoopt dingen op een inhoudelijk onzinnige manier aan elkaar en introduceert zo fouten.

Dus waarmee die systemen gevoed worden bevat steeds meer ruis die helemaal geen nieuwe informatie bevat maar die wel nieuwe fouten bevat. Dan kan de kwaliteit alleen maar teruglopen. Denken dat die zomaar spontaan beter kan worden is magisch denken.

De mensen die deze systemen maken zijn meer dan slim genoeg om dit te doorzien, en om het van te voren al te doorzien. Mensen die op een verantwoorde manier met de nieuwe mogelijkheden willen omgaan zullen niet op die manier hun eigen nest willen bevuilen, en die zullen de sluizen daarom niet wagenwijd opengooien zoals wel is gebeurd. Wanneer doe je dat wel? Als het je geen donder kan schelen om een ravage achter te laten en alleen kijkt naar hoe je er zelf snel beter van kan worden. Dat zijn dus mensen die bezig zijn om snel geld en macht te vergaren, en niet om de wereld beter te maken.

Het trieste is dat mensen er massaal intrappen.
Gisteren, 14:16 door Anoniem
Door Anoniem:
Door Anoniem: Mand!!
Ik zal wel oud worden, maar kan je uitleggen wat je daarmee bedoelt? Dit komt op mij over alsof je net zo goed "Deur!!" of "Fiets!!" had kunnen roepen.
Mand! verwijst naar de mand van tiggelaar ... check YouTube ;-)
Gisteren, 16:18 door Anoniem
Door Anoniem: Er is al nauwelijks privacy bescherming. En dan moet dat NOG zwakker?
Elke keer weer: wat doen we nog in die EU? Erger nog... 'men' stemt partijen als D66...

Mensen, wakker worden. De EU ziet Noord-Korea als voorbeeld, niet als waarschuwing.
Let op wat je wenst AVG is er ondanks NL. Dus buiten de EU was je vogelvrij.

Op z'n best was er het schaamlapje wat we al hadden, namelijk wetgeving zonder sancties...
Daar is met name de VVD de partij zonder visie een kei in.
Want sancties hadden bedrijven alleen maar last van.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.