Abuse Melding

Je hebt een klacht over de onderstaande posting:

12-01-2022, 09:40 door Erik van Straten

Een voorbeeld van een algoritme is: risico = kans x impact Stel je wilt, op het moment dat iemand een bijstanduitkering aanvraagt, het risico op bijstandfraude inschatten, om dan (als jouw algoritme dat aangeeft), iemand verder uit te horen of door eerst inspecteurs de woonsituatie en/of autobezit te laten vaststellen. En stel dat gemiddeld bijstandfraude jouw gemeente 10.000 Euro per jaar kost. Dan hoef je alleen nog de kans in te schatten. En dat is lastig. De verleiding is dan enorm om naar historische gegevens te kijken. Bijvoorbeeld door gebruik te maken van een tabel met bijstandfraudecijfers per postcodegebied. Het gevolg is dat in wijken met historisch weinig bijstandfraude niet gecontroleerd wordt. De beslissing om wel of niet te controleren is dan gebaseerd op vooroordelen, en de pakkans van fraudeurs zou, gezien de inzet van inspecteurs, wel eens optimaal kunnen zijn. Maar je kunt deze aanpak gewoon discriminatie noemen. M.i. zijn niet algoritmes de oorzaak van racisme of biassen, maar in ...

Beschrijf je klacht (Optioneel):

captcha