Je hebt een klacht over de onderstaande posting:
Door Anoniem: Probleem is halicuneren als een persoon dat gaat doen volgt ontslah en verpleging mag je hopen. Bij AI kan dat niet echt. Een andere instantie zal het ook gaan doen. Overigens heet dat halicuneren ook wel glitch- token een meer duidelijke naam. Er zijn al wat juristen de bietenbrug opgegaan door gebruik van AI. Juristen moeten juist kunnen uitleggen/motiveren hoe een uitspraak tot stand komt, dit blijkt niet mogelijk met de AI modellen. Lijkt me een fout idee Dat is het hele MK-Ultra achtige van deze digitale ontwikkelingen in de samenleving. Ik ben geen voorstander van een AI hallucinerend te noemen. AI maakt gewoon fouten, net zoals mensen dat doen. Die fouten zijn tot stand gekomen in een bepaald productie (AI) of denkproces (mens). Rechter motiveert zijn uitspraak in een strafproces met hetgeen die wettelijk en overtuigend bewezen vindt. Rechters maken fouten, AI maakt fouten.
Beschrijf je klacht (Optioneel):