Je hebt een klacht over de onderstaande posting:
AI Assistants: are they designed to help us or exploit us? Worden AI-bots gebouwd om ons te helpen of uit te buiten? 23rd May 2025 De grote taalmodellen, Large Language Models (LLM's), die AI-chatbots aansturen, hebben al aangetoond kwetsbaar te zijn voor een breed scala aan cyberaanvallen, van jailbreaking tot promptinjectie tot gegevensvergiftiging (data poisoning). De impact van deze aanvallen kan beperkt blijven tot de context waarin de LLM opereren (bijvoorbeeld een conversatie of een websessie) en richten zich meestal op het omzeilen van beveiligingsmaatregelen en instructies door de modellen. Maar wanneer modellen worden ingezet in meer kritische omgevingen, wordt beveiliging van het grootste belang om ervoor te zorgen dat de technologie niet verandert in een trojaans paard. https://privacyinternational.org/news-analysis/5591/are-ai-assistants-built-us-or-exploit-us-and-other-questions-ai-industry
Beschrijf je klacht (Optioneel):