Abuse Melding

Je hebt een klacht over de onderstaande posting:

10-12-2025, 14:03 door Anoniem

Door Drs Security en Privacy: Door Anoniem: De oplossing voor AI prompt injection – manipulatie via kwaadaardige inputs die modellen dwingen instructies te negeren – bestaat uit een gelaagde verdediging strategie (defense-in-depth), met input-validatie, model-constraints, geavanceerde training en real-time monitoring. Of gewoon die rotzooi niet gebruiken omdat het uiteindelijk toch niet doet wat je denkt. het kan zelfs niet eens grote hoeveelheden data goed verwerken, by design overigens, en gooit alles wat er te veel is gewoon weg. Om daarna te claimen het netjes "volledig geanalyseerd" te hebben, wat niet waar is. Wie of wat moet of kan AI verbieden, de Verenigde Naties , Europese Unie ofzo? Prompt injections proberen te bestrijden begint met bewustwording van het probleem en onderzoek, ook naar verdedigingsstrategien. Link uit artikel van NCSC: We risk seeing this pattern (ic SQL) repeated with prompt injection, as we are on a path to embed genAI into most applications. If those applications are ...

Beschrijf je klacht (Optioneel):

captcha