image

Britse overheid deelt voor het eerst vragen die minister aan ChatGPT stelde

donderdag 13 maart 2025, 15:01 door Redactie, 5 reacties

De Britse overheid heeft voor het eerst vragen openbaar gemaakt die de Britse minister voor Technologie Peter Kyle aan chatbot ChatGPT stelde. De informatie werd onder de Britse tegenhanger van de Wet open overheid (Woo) door NewScientist opgevraagd. Het medium wilde onder andere kijken of chatbot-prompts ook onder dergelijke wetgeving vallen.

Uit de gedeelde informatie blijkt dat Kyle de chatbot onder andere vroeg waarom Britse mkb-bedrijven zo weinig gebruikmaken van 'AI'. Daarop komt ChatGPT met een lijst van tien punten waar ondernemingen tegenaan lopen. Naast de vragen van de minister werden ook de antwoorden van de chatbot gedeeld. Een woordvoerder van de minister laat weten dat het gebruik van ChatGPT geen vervanging is voor het advies van functionarissen. Daarnaast stelt de woordvoerder dat de Britse overheid 'AI' als 'arbeidsbesparende tool' gebruikt.

De minister blijkt de chatbot ook te hebben gebruikt voor ideeën over mediaoptredens. Zo vroeg Kyle onder andere welke podcasts het beste zijn om een groot publiek te bereiken dat passend voor zijn ministeriële verantwoordelijkheden is. Ook vraagt de bewindsman om verschillende termen zoals antimaterie, quantum en digitale inclusie uit te leggen. De Britse premier Keir Starmer liet deze week weten dat niemands tijd aan taken moet worden besteed die AI beter kan doen.

Reacties (5)
13-03-2025, 15:38 door Anoniem
Wel is het belangrijk publiekelijk en transparant aan te geven hóe de vraag gesteld is, anders kun je AI naar je eigen belangen toe forceren.
13-03-2025, 16:42 door Anoniem
Dus de input valt onder de WOO en de output valt onder de WOO. Dan is de volgde logische stap dat ook het tussen liggende algoritme openbaar wordt, want overheidsbesluiten moeten immer altijd uitlegbaar zijn. "we stopte X in de blackbox toen zei ie Y en we hebben geen idee waarom" conflicteert nogal hevig met de geest van de WOO.

Kan dat niet? dan is ChatGPT niet geschikt voor gebruik door de overheid.
14-03-2025, 02:24 door Anoniem
AI doet mij denken aan "spiegeltje spiegeltje aan de wand wie is de mooiste van het land". Alleen sprak de spiegel dan wel de waarheid, AI hoeft dat niet te doen.
14-03-2025, 08:53 door karma4
Door Anoniem: Dus de input valt onder de WOO en de output valt onder de WOO. Dan is de volgde logische stap dat ook het tussen liggende algoritme openbaar wordt, want overheidsbesluiten moeten immer altijd uitlegbaar zijn. "we stopte X in de blackbox toen zei ie Y en we hebben geen idee waarom" conflicteert nogal hevig met de geest van de WOO.

Kan dat niet? dan is ChatGPT niet geschikt voor gebruik door de overheid.

De overheid moet gegevens van burgers verwerken op hun vragen en ze moeten daarop antwoorden.
De volgende logische stap is dat blackbox van de burger onder de WOO gebracht moet worden door een volledig sleepnet aan te leggen waar de DDR als democratie heel graag een voorbeeld aan genomen had

Je redenering is er een om in te lijsten waarom je zoiets NIET moet willen
17-03-2025, 13:16 door Anoniem
De Britse premier Keir Starmer liet deze week weten dat niemands tijd aan taken moet worden besteed die AI beter kan doen.

Het kan levensgevaarlijk zijn, vooral wanneer ambtenaren met onjuiste prompting informatie over burgers verzamelen. De nuances van prompting maken het verschil tussen ChatGPT die zich beperkt tot feiten en het verzinnen van plausibele, maar fictieve informatie. Door bijvoorbeeld in de prompt expliciet te vermelden dat het resultaat feitelijk en op bewijs gebaseerd moet zijn, kan voorkomen worden dat er ongefundeerde of fictieve elementen in een tekst verschijnen.

Daarnaast vraag ik me af hoe het zit met de uitlegbaarheid van AI-systemen. Hoeveel ambtenaren begrijpen de manier waarop een AI-model tot zijn data en conclusies komt? Als AI niet uitlegbaar is, moet je extreem voorzichtig zijn met het gebruik van de resultaten. Het gebruik van dergelijke technologie kan anders leiden tot een nieuwe toeslagenaffaire, waarbij burgers in de problemen komen omdat een AI-model iets beweert, of omdat een ambtenaar de output verkeerd interpreteert.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.