Je hebt een klacht over de onderstaande posting:
Door Anoniem: LLM's kunnen geen sterke wachtwoorden genereren. Dus ze kunnen ook geen criminaliteit voorspellen. De LLM zal steeds met ongeveer hetzelfde gemiddelde resultaat komen als je vraagt waar de volgende criminaliteit plaats zal vinden. Dat zal steeds dezelfde persoon of groep personen zijn. Die dus gediscrimineerd zullen worden. Zoals Amnesty ook al aangeeft. https://www.schneier.com/blog/archives/2026/02/llms-generate-predictable-passwords.html Ook kan een LLM niet iets voorspellen wat niet al in de trainingsdata zat. Je gaat dus (nieuwe) criminaliteit missen. Prima voorbeeld van het verkeerd gebruiken van een tool. Een taalmodel getraind op patroonherkenning en het uitkotsen van vergelijkbare inhoud (Generative AI) is per definitie niet geschikt voor dit doel. Dat het voorspelbare wachtwoorden genereert is te verwachten, het model zou niet goed werken als het dit juist _niet_ zou doen. Er zijn zat tools beschikbaar die wel een random string genereren, maar LLM's en GenAI zijn dat niet.
Beschrijf je klacht (Optioneel):