Je hebt een klacht over de onderstaande posting:
Door Anoniem: Het lijkt conceptueel een beetje op SQL-injectie: je mengt data en instructies op een manier die het systeem kan misleiden. Alleen is het hier lastiger volledig dicht te timmeren, omdat taalmodellen per definitie alles als tekst verwerken. Er is dus geen harde scheiding zoals bij klassieke software. Dat maakt het een fundamenteel ontwerpprobleem, geen simpele bug die je even kan patchen.Tegelijk wordt er wel degelijk actief aan gewerkt (bijvoorbeeld met sandboxing, tool-permissions, retrieval filters, en “system prompt isolation”), dus het is niet zo dat bedrijven het volledig negeren. M.i. lijkt het conceptueel HEEL ERG op social engineering , met erg vergelijkbare zwakheden van AI en NI (natural intelligence) .
Beschrijf je klacht (Optioneel):