image

Reuters: Google waarschuwt personeel voor gebruik van chatbots

vrijdag 16 juni 2023, 13:35 door Redactie, 6 reacties

Google heeft personeel gewaarschuwd om geen vertrouwelijke code en informatie als invoer voor chatbots zoals ChatGPT te gebruiken, zo meldt persbureau Reuters op basis van anonieme bronnen. Ook werden engineers en ontwikkelaars bij het techbedrijf opgeroepen om geen code te gebruiken die door chatbots is gegenereerd.

Bij het gebruik van chatbots kan op verschillende manieren informatie lekken. Zo kan de invoer van gebruikers door menselijke reviewers van de chatbot worden gelezen. Een andere mogelijkheid is dat de chatbot de data die voor de training is gebruikt aan andere gebruikers doorgeeft. Iets dat onderzoekers eerder al aantoonden (pdf). Eerder bleek al dat voor het trainen van ChatGPT data van website Stackoverflow is gebruikt, waar gebruikers allerlei vragen over hun code kunnen stellen.

Dat brengt het risico met zich mee dat door ChatGPT gegenereerde code kwetsbaarheden bevat. In een reactie stelt Google dat chatbot Bard "ongewenste codesuggesties" kan doen, maar programmeurs wel kan helpen. Eerder lieten ook Samsung, Amazon.com, Deutsche Bank en Apple aan personeel weten dat ze voorzichtig met chatbots moesten zijn. In het privacybeleid van chatbot Bard stelt Google dat gebruikers geen vertrouwelijke of gevoelige informatie aan de gesprekken met de chatbot moeten toevoegen.

Reacties (6)
16-06-2023, 16:42 door Anoniem
Beter laat dan nooit.
16-06-2023, 22:45 door Anoniem
Ik verwacht eigenlijk dat ieder groot bedrijf wat met vertrouwelijke gegevens werkt inmiddels vergelijkbare waarschuwingen aan het personeel heeft gegeven. Of ben ik te optimistisch?
18-06-2023, 01:24 door Anoniem
Door Anoniem: Ik verwacht eigenlijk dat ieder groot bedrijf wat met vertrouwelijke gegevens werkt inmiddels vergelijkbare waarschuwingen aan het personeel heeft gegeven. Of ben ik te optimistisch?
Ik denk dat je te optimistisch bent.
19-06-2023, 08:24 door Anoniem
Door Anoniem: Ik verwacht eigenlijk dat ieder groot bedrijf wat met vertrouwelijke gegevens werkt inmiddels vergelijkbare waarschuwingen aan het personeel heeft gegeven. Of ben ik te optimistisch?
Je bent te optimistisch helaas.. Ik werk best wel bij een groot bedrijf en hier is niemand voor gewaarschuwd dat ze moeten opletten met AI. Ik heb het al vaker aangegeven maar helaas doen ze hier niets mee, het is wachten tot het fout afloopt.
19-06-2023, 09:17 door _R0N_
Door Anoniem: Ik verwacht eigenlijk dat ieder groot bedrijf wat met vertrouwelijke gegevens werkt inmiddels vergelijkbare waarschuwingen aan het personeel heeft gegeven. Of ben ik te optimistisch?

bij grote bedrijven werken stropdassen die niet weten dat medewerkers ChatGPT kunnen en zullen gebruiken.
19-06-2023, 11:09 door Anoniem
AI, deep fake. De gevaren liggen volop op de loer.
Laats de film "Lucy" gezien.

De man, die zijn naam gaf aan het begrip algoritme,
heeft dit ook niet kunnen bevroeden.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.