image

AP: tientallen datalekken door uploaden van persoonsgegevens naar AI-chatbots

dinsdag 30 december 2025, 09:25 door Redactie, 13 reacties

De Autoriteit Persoonsgegevens (AP) heeft dit jaar al tientallen meldingen van datalekken ontvangen doordat medewerkers van organisaties persoonsgegevens van mensen uploaden naar AI-chatbots. Dat laat de privacytoezichthouder tegenover het FD weten. De krant deed navraag naar aanleiding van het gevoelige datalek bij de gemeente Eindhoven.

Vanuit de gemeente werden vele duizenden bestanden naar AI-websites geupload. Een bureau dat het datalek bij de gemeente Eindhoven onderzocht stelde dat er veel gevoelige en bijzondere categorieën van persoonsgegevens naar de chatbots waren geüpload. "Daarbij is onze inschatting dat het ook om veel betrokkenen gaat." Het zou onder andere gaan om documenten met betrekking tot de Jeugdwet, met informatie over onder andere de mentale en fysieke gezondheid van minderjarige kinderen (vaak ook broertjes en zusjes) en ouders. Ook BSN en soms zelfs een foto van het kind zijn onderdeel van het dossier.

Verder ging het ook om overdrachtsdocumenten WMO, met gegevens over onder andere fysieke en mentale gezondheid, diagnoses, verslavingen, financiële problematiek, schulden, problemen op woon en/of werkgebied, inclusief naam, adresgegevens en BSN-nummer. Tevens zijn ook reflectieverslagen van medewerkers, met besprekingen van werkprestaties en informatie over collega’s en cv’s van sollicitanten geüpload.

Dit jaar ontving de AP al tientallen meldingen van dergelijke datalekken. De toezichthouder stelt dat er een toename is ten opzichte van vorig jaar. De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken, en daarbij dan experimenteren met de gratis versies, die geuploade gegevens voor allerlei doeleinden kunnen gebruiken. De Autoriteit Persoonsgegevens adviseert organisaties om beleid op te stellen voor het gebruik van AI-chatbots.

Reacties (13)
Vandaag, 09:36 door quikfit
''De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken''

Te dom om te poepen dus.
Vandaag, 09:37 door Anoniem
Bizar. Hoe knettergek ben je als je gaat experimenteren met persoonsgegevens in AI-chatbots?
Dan moet je nog een hoop leren maar als je niet zelf aanvoelt dat je dat niet moet doen dan ga je het niet leren ook.
Vandaag, 09:42 door Anoniem
Door quikfit: ''De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken''

Te dom om te poepen dus.

Dat is de definitie van de gemiddelde gebruiker.
Die zien al snel allerlei hindernissen, die hun eigenlijke werk lastiger maakt en vertaagd.
Ze hebben geen interesse in veilig IT gebruik. Dat is niet hun ding.


En thuis gebruiken ze die gratis zooi toch ook... ("zonder problemen")
/s
Vandaag, 10:12 door Anoniem
Medewerkers hadden dit nooit moeten doen, maar het systeem had zo ingeregeld moeten worden dat ze het niet zouden kunnen doen.
Tja IT en ITers en overheid gaat niet goed samen.
Vandaag, 10:20 door Anoniem
Door quikfit: ''De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken''

Te dom om te poepen dus.
Doe niet zo arrogant. Daar zitten zat mensen tussen die dingen kunnen en weten waar jij weer totaal geen kaas van hebt gegeten. Besef dat er zat gebieden zijn waarop je zelf net zo goed te dom bent om te poepen, als je dat zo wilt typeren, en vraag je eens af of je het zelf wel op prijs stelt om op die manier beoordeeld te worden.
Vandaag, 10:31 door Anoniem
Je kunt het dom vinden, maar als 99% van alle mensen dit doen, is het gewoon algemene laakbaarheid.
Laakbbaarheid van personeel, laakbaarheid van de werkgever. Laakbaarheid is een menselijke norm
en we weten dat allemaal, we doen er allemaal aan mee maar het kan ons niet schelen.

Niet klagen dus, maar werken aan een omgeving waarin laakbaarheid niet meer relevant is.
Vandaag, 11:01 door Anoniem
Door Anoniem: Medewerkers hadden dit nooit moeten doen, maar het systeem had zo ingeregeld moeten worden dat ze het niet zouden kunnen doen.
Tja IT en ITers en overheid gaat niet goed samen.

Jammer alleen, dat het in de zorg en het bedrijfsleven net zo hard gebeurt.
Daar werken net zo goed mensen die geen IT affiniteit hebben.
Vandaag, 11:36 door Anoniem
Door Anoniem:
Door quikfit: ''De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken''

Te dom om te poepen dus.
Doe niet zo arrogant. Daar zitten zat mensen tussen die dingen kunnen en weten waar jij weer totaal geen kaas van hebt gegeten. Besef dat er zat gebieden zijn waarop je zelf net zo goed te dom bent om te poepen, als je dat zo wilt typeren, en vraag je eens af of je het zelf wel op prijs stelt om op die manier beoordeeld te worden.

Correct. Het is een algemene tendens die nooit meer zal stoppen. Zet mensen zonder rijbewijs achter het stuur en er gaan verkeerde dingen gebeuren. IT hebben we algemeen toegankelijk gemaakt. Iedereen moet het kunnen, iedereen moet het ook zelf maar uitzoeken hoe zaken achter de schermen werken, je hoopt maar dat mensen adviezen opvolgen en zichzelf wat bekwamen in het gebruik ervan, maar er is geen enkele garantie.

Awareness trainingen en cursussen zullen hier niets aan veranderen. Zet mensen onder tijdsdruk en ze zoeken manieren om snel dingen gedaan te krijgen. Ik kan het ze niet eens kwalijk nemen. IT is ook zo waanzinnig complex geworden, dat algemeen gebruik van IT-middelen in combinatie met internetfunctionaliteit voor een bepaalde groep mensen niet meer vanzelfsprekend zou moeten zijn. Het dichttimmeren is bijkans onbegonnen werk.
Vandaag, 11:51 door Anoniem
Door Anoniem: Medewerkers hadden dit nooit moeten doen, maar het systeem had zo ingeregeld moeten worden dat ze het niet zouden kunnen doen.
Tja IT en ITers en overheid gaat niet goed samen.

Tja, gewone mensen in onze samenleving en IT.
Dat gaat ook al decennia niet goed samen.

Niets nieuws onder de zon.
Jong niet goed (aan)geleerd, oud niet goed gedaan.
Alleen wordt de maatschappelijke schade wel steeds groter, door steeds meer digitalisering.

Wat zou daar een mogelijke oplossing voor kunnen zijn?
Beter trainen van mensen is blijkbaar de oplossing niet, gezien de resutaten over die decennia tot nu toe.
Vandaag, 11:52 door Anoniem
Door quikfit: ''De datalekken zouden ontstaan doordat medewerkers van organisaties op eigen initiatief AI-chatbots gebruiken''

Te dom om te poepen dus.

en dan toch overal weer stront aan de knikker....
Vandaag, 11:53 door Anoniem
Ik heb dat onderzoeksrapport gelezen en dat stikt van de aannames. Zo gaan ze van bestandsnamen uit om te bepalen dat er persoonsgegevens in hadden moeten staan, wat in de praktijk niet zo hoeft te zijn. Verder wordt er aan een stokoud onderzoek gerefereerd dat gebaseerd is op inmiddels zwaar bejaarde LLM's. Ik geloof best dat er bepaalde persoonsgegevens niet worden geanonimiseerd wanneer stukken in een Ai gestopt worden maar om er nu zoveel fuss van te maken vind ik ook weer overdreven. Zeker als je beseft dat de EC commissie bezig is om de GDPR/AVG zodanig aan te passen dat BigTech in de gelegenheid wordt gesteld om zelfs onze medische gegevens via AI te verwerken. Dan is het best hypocriet te noemen dat over iets als deze zaak, waarvan helemaal niet vaststaat dat er idd persoonsgegevens gelekt zijn, zoveel fuss te maken.
Meer dan 90% van het volk interesseert het geen reet wat er met hun gegevens gebeurd.
Je druk maken over een vermeent datalek maar ondertussen je niet druk maken over dat onze overheid onze gegevens met iedere partij deelt en de digitale gevangenis steeds kleiner aan maken is.
Vandaag, 12:23 door Anoniem
Een cursus digitale weerbaarheid zou niet verspild zijn aan de ambtenaren die met persoonsgegevens omgaan. En elk jaar op herhaling en wekelijks een nieuwsbrief met de laatste ontwikkelingen. Zeker wat AI betreft.
Vandaag, 12:48 door Anoniem
Door Anoniem: Ik heb dat onderzoeksrapport gelezen en dat stikt van de aannames. Zo gaan ze van bestandsnamen uit om te bepalen dat er persoonsgegevens in hadden moeten staan, wat in de praktijk niet zo hoeft te zijn. Verder wordt er aan een stokoud onderzoek gerefereerd dat gebaseerd is op inmiddels zwaar bejaarde LLM's. Ik geloof best dat er bepaalde persoonsgegevens niet worden geanonimiseerd wanneer stukken in een Ai gestopt worden maar om er nu zoveel fuss van te maken vind ik ook weer overdreven. Zeker als je beseft dat de EC commissie bezig is om de GDPR/AVG zodanig aan te passen dat BigTech in de gelegenheid wordt gesteld om zelfs onze medische gegevens via AI te verwerken. Dan is het best hypocriet te noemen dat over iets als deze zaak, waarvan helemaal niet vaststaat dat er idd persoonsgegevens gelekt zijn, zoveel fuss te maken.
Meer dan 90% van het volk interesseert het geen reet wat er met hun gegevens gebeurd.
Je druk maken over een vermeent datalek maar ondertussen je niet druk maken over dat onze overheid onze gegevens met iedere partij deelt en de digitale gevangenis steeds kleiner aan maken is.

Moet dat niet zijn: "de digitale gevangenis steeds GROTER aan het maken is."
Dat steeds meer mensen in die gevangenis vast komen te zitten, en er niet meer uit komen.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.