/dev/null - Overig

Gevaarlijke algoritmen

12-02-2026, 16:35 door Anoniem, 28 reacties
Uit https://nos.nl/artikel/2602058-kans-op-herhaling-criminelen-jarenlang-verkeerd-berekend-door-reclassering
Het algoritme dat door de reclassering gebruikt wordt om de recidivekans van criminelen te berekenen bevat serieuze fouten. Laten we het even niet hebben over de individuele gevolgen van deze fouten, maar ons de vraag stellen waarom zoiets jarenlang niet ontdekt wordt. (Of zijn meldingen over fouten en twijfels in de doofpot verdwenen?)

En dan komt de vraag op zijn er nog meer plaatsen waar algoritmen op een risicovolle wijze gebruikt worden, zonder behoorlijke verificatie? Welke systemen worden op jouw werk gebruikt?
Reacties (28)
12-02-2026, 17:20 door Anoniem
Door Anoniem: Uit https://nos.nl/artikel/2602058-kans-op-herhaling-criminelen-jarenlang-verkeerd-berekend-door-reclassering
Het algoritme dat door de reclassering gebruikt wordt om de recidivekans van criminelen te berekenen bevat serieuze fouten. Laten we het even niet hebben over de individuele gevolgen van deze fouten, maar ons de vraag stellen waarom zoiets jarenlang niet ontdekt wordt. (Of zijn meldingen over fouten en twijfels in de doofpot verdwenen?)

En weer heeft de onderbuik over het justitie apparaat gelijk .

Zal vast ongemakkelijk zijn voor deugende Volkskrant lezers die al die jaren gedacht hebben dat missers "incidenten" waren, waar nu (pas) een systematisch probleem blijkt te zitten.

Want linksom of rechtsom is het een erg kwalijke zaak.

Dat de implementatie van het model (bv - terugval in drugs -> meer kans op recidive) in de implementatie van het model precies verkeerd gaat ( kans := kans - 10% , in plaats van kans := kans + 10% of zo iets) had ergens moeten opvallen .

In testen van het model , in de natte vinger van de "experts" die een dossier intikken en een recidive kans terugkrijgen van de computer en dan eventueel niet denken "WTF" hoe komt de computer hierbij.

Of - in de organisatie als ze WEL aan de bel trokken en structureel afgepoeierd zijn.


En natuurlijk allemaal over de rug van de maatschappij waarin deze lieden zijn losgelaten - en die stelselmatig weggezet worden als 'populist' wanneer ze klagen .
12-02-2026, 17:37 door Anoniem
Laten we [...] ons de vraag stellen waarom zoiets jarenlang niet ontdekt wordt.
Wat dacht je van deze zinnen uit het artikel waar je naar linkt?
Omdat het algoritme slechts een deel uitmaakt van de totale risico-inschatting, kan de inspectie niets zeggen over in hoeveel gevallen dit ook echt tot verkeerde uitkomsten heeft geleid. Want medewerkers maken ook nog een eigen afweging, die een rechter weer meeneemt in het eindoordeel.
Daarbij is een risico-inschatting geen helderziendheid, zelfs een goede kwaliteit risico-inschattingen zal de plank wel eens misslaan.

Wat mij, als ik het artikel lees, opvalt is de mate van incompetentie waarmee men het systeem heeft ingezet, men heeft overduidelijk niet begrepen waar men mee werkte en wat nodig was voor een goede werking. Wat ik daar lees doet mij denken aan situaties waarin management dacht een wondermiddel binnen te rijden dat met een druk op de knop alles goed zou doen gaan zonder dat je er nog naar om hoefde te kijken, en vanuit dat perspectief het personeel ermee overviel en niet zorgde dat voldoende getrainde en capabele mensen het oppakten.
12-02-2026, 19:21 door Anoniem
Hoe compleet is ondertusen het algoritme register?


Als je kees hoe slordig de inrichting palats gevindne heeft:
- instellingen omgedraaid
- instellingen leeg gelaten (want mochten niet gebruikt worden), maar het algoritme dar net op aangepast
- en gebaseerd op Zweedse crimil=nelen van 20 jaar geleden

Dan verwachten dat het foutloos gaat werken.
En de uitslag belangrijker laten zijn dan een menselijke inschattng (want die zou wel bevoorordeeld kunnen zijn)

Het is niet zozeer een vraag wat kan er verkeerd gaan, maar wat kan er goed gaan met zo;n inrichting en gebruik.
Incompetentie?
13-02-2026, 11:57 door Anoniem
Uit het rapport van de inspectie blijkt dat de rekenmodellen die de reclassering hierbij gebruikte er in ongeveer één op de vijf gevallen naast zaten. Eén van die algoritmes, genaamd Oxrec, voldoet op bijna geen enkel vlak aan de normen voor overheidsalgoritmes, concludeert de inspectie. In het algoritme waren cruciale formules verwisseld, drugsproblematiek zat niet goed in het model en ernstige psychische aandoeningen werden niet meegenomen.

https://nos.nl/artikel/2602206-directeur-reclassering-over-vernietigend-rapport-onvoldoende-kennis-algoritmes
13-02-2026, 12:18 door Anoniem
Door Anoniem:
Laten we [...] ons de vraag stellen waarom zoiets jarenlang niet ontdekt wordt.
Wat dacht je van deze zinnen uit het artikel waar je naar linkt?
Omdat het algoritme slechts een deel uitmaakt van de totale risico-inschatting, kan de inspectie niets zeggen over in hoeveel gevallen dit ook echt tot verkeerde uitkomsten heeft geleid. Want medewerkers maken ook nog een eigen afweging, die een rechter weer meeneemt in het eindoordeel.
Daarbij is een risico-inschatting geen helderziendheid, zelfs een goede kwaliteit risico-inschattingen zal de plank wel eens misslaan.

Dat is juist het probleem - die medewerkers met "eigen afweging op basis van kennis en ervaring " zou moeten opvallen dat "de computer" stelselmatig een risico inschatting geeft die tegengesteld is aan hun eigen expertise .

"computer says YES" . En die hebben dat verschil tussen henzelf en de computer niet gezien - of wel gezien en zijn al die tijd niet serieus genomen .
Elk van de twee opties is een serieus probleem .

Hebben die in het eindrapport naar de rechter gewoon "meegeluld met de compter" , of juist het computeradvies volkomen genegeerd omdat het niet kon kloppen - dat kun je achteraf niet makkelijk zien .
13-02-2026, 15:48 door Anoniem
Jammer dat er geen opdeling is naar aard delict waar het algoritme verkeerde voorspellingen deed.

Lijkt mij zinvol te kijken hoe het met recidive cybercriminaliteit gesteld is.
13-02-2026, 16:52 door Anoniem
Door Anoniem: Jammer dat er geen opdeling is naar aard delict waar het algoritme verkeerde voorspellingen deed.

Lijkt mij zinvol te kijken hoe het met recidive cybercriminaliteit gesteld is.

Dit model zal dat niet voorspellen, als ik lees welke parameters gemist waren.

In de software van de OXREC heeft de Inspectie JenV fouten aangetroffen. Zo worden sinds de ingebruikname in 2018 formules voor gevangenen en verdachten verwisseld en worden verkeerde getallen gebruikt. Hierdoor wordt in de meeste gevallen het risico op recidive te laag ingeschat, met name voor drugsgebruikers en mensen met een ernstige psychische aandoening zoals een psychose.

cybercriminelen zullen ook best recidiveren, maar ik denk dat ze niet hoog scoren op de drugs of psychose kenmerken.

Dit geeft me het idee dat het model zich richt op geweldsmisdrijven (mishandeling, evt icm beroving, verkrachting etc) .

Maar de hele deuggemeente is toch al bezig om het te slopen :

De OXREC gebruikt variabelen die kunnen leiden tot discriminatie; namelijk ‘buurtscore’ en ‘hoogte van het inkomen’. Het College van de Rechten van de Mens heeft enkele jaren geleden gesteld dat het gebruik van deze variabelen in algoritmes in principe verboden

Dat is natuurlijk best een voorspellende indicator - crimineel in asociale buurt met weinig geld is geneigd te recidiveren.
No Shit Sherlock .

Maar daar mag je dan niet naar kijken voor de risico vraag.

Hoog tijd dat dat de resocialisatie experimenten ook eens in de elite wijken gedaan worden - eat your own dogfood, als je vindt dat "iedereen weer een veertiende kans verdient in de maatschappij" mag die vooral ook in JOUW omgeving die kans krijgen.
13-02-2026, 19:32 door MathFox
Door Anoniem: Jammer dat er geen opdeling is naar aard delict waar het algoritme verkeerde voorspellingen deed.

Lijkt mij zinvol te kijken hoe het met recidive cybercriminaliteit gesteld is.
Het OXREC systeem voorspelt gebaseerd op 20 jaar oude gegevens uit Zweden... Daar zal qua cyber weinig relevants uitkomen.
13-02-2026, 20:01 door Anoniem
Door MathFox:
Door Anoniem: Jammer dat er geen opdeling is naar aard delict waar het algoritme verkeerde voorspellingen deed.

Lijkt mij zinvol te kijken hoe het met recidive cybercriminaliteit gesteld is.
Het OXREC systeem voorspelt gebaseerd op 20 jaar oude gegevens uit Zweden... Daar zal qua cyber weinig relevants uitkomen.

Ging nog een paar andere algoritmes:
Rapport:

https://www.inspectie-jenv.nl/site/binaries/site-content/collections/documents/2026/02/12/rapport-risicovol-algoritmegebruik/rapport-risicovol-algoritmegebruik.pdf
13-02-2026, 21:30 door Anoniem
De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.
Gisteren, 08:38 door Anoniem
Hoe ontdek je het als gebruikte algoritmes er consistent zo'n 5% naast zitten ?

is dat genoeg om het als expert te voelen ?

is dat te weinig om als manager je er druk over te maken ?

Als het consistent 5% in je voordeel is, maakt dat het verhaal anders dan als het in je nadeel is ?

In 'da toe-komst' zal het consistent afwijken wellicht maar 2% zijn, hoeveel afwijking is acceptabel ?

Wat is eigenlijk goed gebruik van voorspellende algoritmes ?
Voor beleid lijkt het me nuttig, voor toepassing in individuele gevallen zou het niet moeten mogen.
(statistiek gaat over groepen, niet over individuen)

Feitelijk practisch is het natuurlijk zo dat als gebruik van softwarepakket A er voor zorgt dat de manager die het heeft ingezet wordt beloont, dat het niet uitmaakt of het goed werkt of niet.
(zie winkneus fascinatie door onze departementen en BD-cs)
Gisteren, 09:54 door Anoniem
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.
Gisteren, 10:42 door Anoniem
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:
Het is een zelfstandig bestuursorgaan (net als bijvoorbeeld AP) dat bij wet is ingesteld en gefinancierd wordt uit de staatskas. Officiëler krijg je het niet.

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.
Eigenlijk zeg je nu dat wetten niet mogen discrimineren maar dat de uitvoerders van de wetten dat wel mogen. Dus als de wet zegt dat de politie boeven mag vangen en de politie vangt alleen zwarte boeven en laat alle witte boeven lopen dan is er niets aan de hand volgens die logica. Ik denk dat je iets beter moet nadenken.

Verder heeft het Nederlandse recht de eigenaardigheid dat rechters niet rechtstreeks aan de grondwet mogen toetsen (dat moeten de Tweede en Eerste kamer doen bij het beoordelen van het wetsvoorstel) en dat de regels die dus feitelijk gelden niet rechtstreeks uit de grondwet komen maar uit andere wetten.

Hier gaat het om de Algemene wet gelijke behandeling. Die werkt met direct en indirect onderscheid. Bij direct onderscheid gaat het om onderscheid op grond van godsdienst, levensovertuiging, politieke gezindheid, ras, geslacht, nationaliteit, hetero- of homoseksuele gerichtheid of burgerlijke staat. Bij indirect onderscheid gaat het om onderscheid op grond van dingen die ogenschijnlijk neutraal zijn, maar die mensen met de genoemde kenmerken in vergelijking met anderen bijzonder treffen. Dus ja, door een risicoschatting aan postcode en inkomen te koppelen kan men over de schreef gaan. Het is niet zo absoluut verboden als het directe onderscheid, maar het moet wel objectief gerechtvaardigd, passend en noodzakelijk zijn. Dat is geen smoes die men er achteraf wel bij mag verzinnen, dat is iets waar men vooraf goed over moet nadenken en dat men ook moet vastleggen, en dat is hier niet gebeurd.

De Algemene wet gelijke behandeling: https://wetten.overheid.nl/BWBR0006502/2026-01-01

De reclassering bestaat uit een aantal particuliere organisaties die wel een officiële taak uitvoeren en onder wetgeving vallen, die werken in opdracht van het Openbaar ministerie. Mensen die onder toezicht ervan worden gesteld mogen de reclassering niet negeren. Dat is dus ook al officieel. Waar het hier om gaat is dat de reclassering rechters adviseert en dat verkeerde adviezen tot fouten in de rechtspraak kunnen leiden. Dat raakt direct aan rechten van mensen.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.
Denk een stapje verder door over hoe dingen dan uitpakken. Puntje voor puntje:

• In een bepaalde groep is de criminaliteit bijvoorbeeld twee keer zo hoog als gemiddeld voor Nederland.
• De politie gaat daarom die groep extra intensief in de gaten houden, laten we aannemen dat dat ook twee keer zo intensief is. Precies wat jij voorstaat, en ook best begrijpelijk als je niet doordenkt.
• Maar dan daalt in de loop van een aantal jaar de criminaliteit in die groep tot het gemiddelde niveau. De groep is dus heel gewoon geworden. Die groep heeft nog steeds criminelen, maar niet meer dan normaal.
• Maar de politie controleert die groep nog steeds twee keer zo intensief, en dat verdubbelt de pakkans van criminelen in die groep. Dat op zichzelf is niet erg, een crimineel mag zeker gepakt worden.
• De cijfers daarover komen in de statistieken terecht, en die geven dan aan dat de criminaliteit nog steeds twee keer zo hoog is als normaal in die groep, terwijl dat in werkelijkheid niet meer zo is.
• De politie ziet daarin alle reden om die groep twee keer zo intensief te blijven controleren.
• Resultaat: zonder er erg in te hebben en zonder het te bedoelen discrimineert de politie die groep.

Het punt ervan is niet dat de rechten van een crimineel zouden worden aangetast als die gepakt wordt, dat is niet zo en er is helemaal geen bezwaar tegen het pakken van criminelen. Het punt is dat al die andere mensen in die groep die helemaal geen crimineel zijn ook veel meer gecontroleerd worden en die merken echt wel op dat ze veel meer wantrouwen op zich af krijgen. En hoe reageert een groep die het gevoel krijgt dat de samenleving ze uitspuugt en maar blijft uitspugen? Dat vergroot het risico dat zij zich niet meer geroepen voelen om er echt deel van uit te maken en zich gaan gedragen op een manier waar de rest van de samenleving niet blij van wordt.

Men moet dus verdomd goed oppassen dat men niet zelf degene wordt die het probleem in stand houdt.

Dat je het College voor de rechten van de mens een extreemlinkse hobbyclub noemt en vijanden van de normale burger, moet ik daaruit afleiden dat je zelf geen prijs stelt op mensenrechten? De vrijheid van meningsuiting die maakt dat je je reactie kon plaatsen zonder vervolgens van je bed gelicht te worden door een of andere duistere overheidsknokploeg, dat valt ook onder die mensenrechten die het college bewaakt, besef je dat? Of vind je dat mensenrechten alleen maar voor jouw soort mensen moeten gelden, misschien? Dat zou kunnen, want dat je een politiek neutraal instituut voor extreemlinks aanziet suggereert dat je zelf extreemrechts bent.
Gisteren, 11:09 door MathFox
Door Anoniem: Hoe ontdek je het als gebruikte algoritmes er consistent zo'n 5% naast zitten ?
Als de afwijking structureel in een richting is, dan kun je die vrij simpel met een optelling (of vermenigvuldiging) corrigeren. Dat noemt men kalibratie.
Om dat te kunnen doen moet je wel structureel gegevens verzamelen op een manier waardoor je de voorspellingen kunt vergelijken met wat de uiteindelijk uitkomsten.

Wat is eigenlijk goed gebruik van voorspellende algoritmes ?
Voor beleid lijkt het me nuttig, voor toepassing in individuele gevallen zou het niet moeten mogen.
(statistiek gaat over groepen, niet over individuen)
Weersvoorspelling? En je hebt gelijk, iemand met 80% kans op kanker kan overlijden door een verkeersongeval.
Wat er bij de reclassering gebeurt is dat er een (semikwantitatieve) risico-inschatting gemaakt wordt (hoog-gemiddeld-laag) die in de rechtszaak gebruikt wordt om "maatwerk" te leveren in de aanpak van de verdachte. Interessante vraag is in hoeverre dit beoordelings- en maatwerksysteem discriminatie in de hand werkt.
Gisteren, 12:20 door Anoniem
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.

Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."

Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.
Gisteren, 12:33 door Anoniem
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:
Het is een zelfstandig bestuursorgaan (net als bijvoorbeeld AP) dat bij wet is ingesteld en gefinancierd wordt uit de staatskas. Officiëler krijg je het niet.

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.
Eigenlijk zeg je nu dat wetten niet mogen discrimineren maar dat de uitvoerders van de wetten dat wel mogen. Dus als de wet zegt dat de politie boeven mag vangen en de politie vangt alleen zwarte boeven en laat alle witte boeven lopen dan is er niets aan de hand volgens die logica. Ik denk dat je iets beter moet nadenken.

Verder heeft het Nederlandse recht de eigenaardigheid dat rechters niet rechtstreeks aan de grondwet mogen toetsen (dat moeten de Tweede en Eerste kamer doen bij het beoordelen van het wetsvoorstel) en dat de regels die dus feitelijk gelden niet rechtstreeks uit de grondwet komen maar uit andere wetten.

Hier gaat het om de Algemene wet gelijke behandeling. Die werkt met direct en indirect onderscheid. Bij direct onderscheid gaat het om onderscheid op grond van godsdienst, levensovertuiging, politieke gezindheid, ras, geslacht, nationaliteit, hetero- of homoseksuele gerichtheid of burgerlijke staat. Bij indirect onderscheid gaat het om onderscheid op grond van dingen die ogenschijnlijk neutraal zijn, maar die mensen met de genoemde kenmerken in vergelijking met anderen bijzonder treffen. Dus ja, door een risicoschatting aan postcode en inkomen te koppelen kan men over de schreef gaan. Het is niet zo absoluut verboden als het directe onderscheid, maar het moet wel objectief gerechtvaardigd, passend en noodzakelijk zijn. Dat is geen smoes die men er achteraf wel bij mag verzinnen, dat is iets waar men vooraf goed over moet nadenken en dat men ook moet vastleggen, en dat is hier niet gebeurd.

De Algemene wet gelijke behandeling: https://wetten.overheid.nl/BWBR0006502/2026-01-01

De reclassering bestaat uit een aantal particuliere organisaties die wel een officiële taak uitvoeren en onder wetgeving vallen, die werken in opdracht van het Openbaar ministerie. Mensen die onder toezicht ervan worden gesteld mogen de reclassering niet negeren. Dat is dus ook al officieel. Waar het hier om gaat is dat de reclassering rechters adviseert en dat verkeerde adviezen tot fouten in de rechtspraak kunnen leiden. Dat raakt direct aan rechten van mensen.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.
Denk een stapje verder door over hoe dingen dan uitpakken. Puntje voor puntje:

• In een bepaalde groep is de criminaliteit bijvoorbeeld twee keer zo hoog als gemiddeld voor Nederland.
• De politie gaat daarom die groep extra intensief in de gaten houden, laten we aannemen dat dat ook twee keer zo intensief is. Precies wat jij voorstaat, en ook best begrijpelijk als je niet doordenkt.
• Maar dan daalt in de loop van een aantal jaar de criminaliteit in die groep tot het gemiddelde niveau. De groep is dus heel gewoon geworden. Die groep heeft nog steeds criminelen, maar niet meer dan normaal.
• Maar de politie controleert die groep nog steeds twee keer zo intensief, en dat verdubbelt de pakkans van criminelen in die groep. Dat op zichzelf is niet erg, een crimineel mag zeker gepakt worden.
• De cijfers daarover komen in de statistieken terecht, en die geven dan aan dat de criminaliteit nog steeds twee keer zo hoog is als normaal in die groep, terwijl dat in werkelijkheid niet meer zo is.
• De politie ziet daarin alle reden om die groep twee keer zo intensief te blijven controleren.
• Resultaat: zonder er erg in te hebben en zonder het te bedoelen discrimineert de politie die groep.

Het punt ervan is niet dat de rechten van een crimineel zouden worden aangetast als die gepakt wordt, dat is niet zo en er is helemaal geen bezwaar tegen het pakken van criminelen. Het punt is dat al die andere mensen in die groep die helemaal geen crimineel zijn ook veel meer gecontroleerd worden en die merken echt wel op dat ze veel meer wantrouwen op zich af krijgen. En hoe reageert een groep die het gevoel krijgt dat de samenleving ze uitspuugt en maar blijft uitspugen? Dat vergroot het risico dat zij zich niet meer geroepen voelen om er echt deel van uit te maken en zich gaan gedragen op een manier waar de rest van de samenleving niet blij van wordt.

Men moet dus verdomd goed oppassen dat men niet zelf degene wordt die het probleem in stand houdt.

Dat je het College voor de rechten van de mens een extreemlinkse hobbyclub noemt en vijanden van de normale burger, moet ik daaruit afleiden dat je zelf geen prijs stelt op mensenrechten? De vrijheid van meningsuiting die maakt dat je je reactie kon plaatsen zonder vervolgens van je bed gelicht te worden door een of andere duistere overheidsknokploeg, dat valt ook onder die mensenrechten die het college bewaakt, besef je dat? Of vind je dat mensenrechten alleen maar voor jouw soort mensen moeten gelden, misschien? Dat zou kunnen, want dat je een politiek neutraal instituut voor extreemlinks aanziet suggereert dat je zelf extreemrechts bent.

Je vergeet te melden dat in jouw voorbeeld, al die andere criminelen die niet aan die criteria voldoen, minder gecontroleerd worden en dus vaker vrijuitgaan. Gewoon. Omdat de politie ze in hun statisteken niet ziet.
En dat in de loop van de tijd die groep criminelen groter wordt, want er is minder pakkans.
Onzichtbaar voor de cijfers, omdat de politie te druk is met dat verhoudingsgewijs kleine groepje criminelen dat uit hun discriminerende statistieken en algoritmes voort komen.

Uiteindelijk heeft de samenleving linksom of rechtsom last van die discriminerende algoritmes.
De groep die teveel gecontroleerd wordt, want ook de onschuldigen hebben daar last van. Voelen zich achtervolgd. Als minderwaardig behandeld. Verliezen een deel van hun grondrechten. Haken af.
Maar ook de groep die te weinig gecontroleerd wordt, want daar groeit het aantal criminelen juist sterker omdat ze minder snel opgepakt zullen worden. Want de politie heeft geen aandacht voor ze. Is afgeleidt door hun algoritmes die een vertekend beeld geven van de werkelijkheid.
Gisteren, 13:18 door Anoniem
Door Anoniem: Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."

Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.
Volgens wat je zelf van ASR citeert kan jij nog zo'n goede chauffeur zijn en je nog zo prima gedragen, als je postcode tegenzit mag jij dokken. Het ligt met andere woorden niet alleen aan je eigen gedrag, het ligt ook aan het gedrag van anderen waar je geen invloed op hebt, die je mogelijk niet eens kent.
Gisteren, 13:26 door Anoniem
Door Anoniem: Uit https://nos.nl/artikel/2602058-kans-op-herhaling-criminelen-jarenlang-verkeerd-berekend-door-reclassering
Het algoritme dat door de reclassering gebruikt wordt om de recidivekans van criminelen te berekenen bevat serieuze fouten. Laten we het even niet hebben over de individuele gevolgen van deze fouten, maar ons de vraag stellen waarom zoiets jarenlang niet ontdekt wordt. (Of zijn meldingen over fouten en twijfels in de doofpot verdwenen?)

En dan komt de vraag op zijn er nog meer plaatsen waar algoritmen op een risicovolle wijze gebruikt worden, zonder behoorlijke verificatie? Welke systemen worden op jouw werk gebruikt?

Wat erger is dat deze mensen ook worden geplaatst bij
de groep"kwetsbare mensen in de samenleving"
deze mensen worden via een taakstraf geplaatst bij kringloopcentrums,en
daar werken juist mensen met een afstand tot de arbeidsmarkt als vaak genoemd argument,
ze hebben dan vaak te maken met agressie niet van elke taakstraffer maar het komt regelmatig voor.
en de kwetsbare mensen die werken voor een kringloopcentrum die moeten daar maar mee dealen.
Gisteren, 14:36 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.

Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."

Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.

Maar wat als ze er andere willekeurige criteria aan toe voegen?
bv: je vriendenkring, waar je naar toe reist, de kleur van je voertuig, of je man of vrouw bent, of je linkshandig bent of niet. Of je blauwe ogen en blond haar hebt. Of een grote bek tegen je baas of je vrouw.
Bedenk maar iets waardoor je opeens als uitzondering wel die hoge premie krijgt. Of de politie je vaker aanhoudt.

Wat als de discriminatie een keer niet prima uitpakt voor je, ook al hou je je aan alle officiele regels en gedraag je je?
Ben je er dan nog steeds gelukkig mee?
Gisteren, 17:43 door Anoniem
Wat is eigenlijk goed gebruik van voorspellende algoritmes ?
Voor beleid lijkt het me nuttig, voor toepassing in individuele gevallen zou het niet moeten mogen.
(statistiek gaat over groepen, niet over individuen)
Ja, dit is een interessante insteek omdat het betekent, dat in het contact (relatie) met mensen de individuele, persoonlijke inschatting m.b.t de concrete persoon waarover het gaat het zwaarst moet wegen.
Dit zou voor alle zorgverlening, ook de strafzorgverlening (reclassering) moeten gelden.
Het betekent, dat de persoonlijke expertise van de zorghulpverlener meer gewicht krijgt dan "de" algoritmes of "het" protocol (want dit is ook gebaseerd op algoritmes) dan nu het geval is.
De ontwikkeling die nu gaande is bestaat erin dat algoritmes en protocollen steeds meer het persoonsgebonden oordeel van de hulpverlener-expert, die direct contact heeft met de concrete persoon, vervangen, wegduwen.
De wetmatigheden die op het niveau van de groep gelden (statistiek) worden dan één op één overgebracht op de individuele sfeer.
De (persoonlijke) situatie van het individu (patiënt, wetsovertreder) wordt uitgedrukt in een positie in een matrix: u heeft zoveel procent kans op dit en zoveel procent kans op dat (recidive of het terugkomen van kanker bijvoorbeeld).
De individuele mens wordt daardoor gevangen/ vastgelegd in een exact aandoende (cijfers!) kansberekening/ mate van waarschijnlijkheid.
Met deze aan het "gedrag" van de groep ontleende waarschijnlijkheden/ kansen wordt de individuele mens dan gelijkgesteld.
Statistiek is een gelijkmaker: alle mensen zijn hetzelfde buiten de factoren die in onze kansberekeningen zijn onderscheiden (meegenomen).
Een dergelijke gehanteerde assumptie -het rotsvaste axioma van elke kansberekening- staat haaks op de vrijheid, de onbepaaldheid van de mens.
Zowel ziekte/gezondheid als recidive zijn sterk afhankelijk van de concrete, bijzondere mens, die het betreft. Hoe persoonlijk (verschillend) (het verloop van) gezondheid en ziekte, bijvoorbeeld, is wordt door de algoritmes- en protocollen-apparatsjiks liefst genegeerd.
Dat zijn de beleidsmakers.
Gisteren, 18:53 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.

Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."

Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.

Maar wat als ze er andere willekeurige criteria aan toe voegen?
bv: je vriendenkring, waar je naar toe reist, de kleur van je voertuig, of je man of vrouw bent, of je linkshandig bent of niet. Of je blauwe ogen en blond haar hebt. Of een grote bek tegen je baas of je vrouw.
Bedenk maar iets waardoor je opeens als uitzondering wel die hoge premie krijgt. Of de politie je vaker aanhoudt.

Wat als de discriminatie een keer niet prima uitpakt voor je, ook al hou je je aan alle officiele regels en gedraag je je?
Ben je er dan nog steeds gelukkig mee?

Wat als mijn tante wielen had, zou ze dan een fiets zijn?
Dit is nonsens wat als geneuzel.. Effe de pijp neerleggen en goed kijken waar het echt over gaat. Het zijn altijd objectief vast te stellen feiten die voor de discriminatie zorgen. Over feiten kun je niet zeuren, die zijn zo.
Gisteren, 19:49 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.
Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."
Het discriminerende zit in het gebruik van statistiek als zodanig.
Zie mijn reactie onder Anoniem, vandaag 17:43.
Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.
Schadeverleden is een factor waar je zelf direct invloed op hebt.
Dit geldt niet voor je postcode of wanneer je in een wijk woont waarin zich veel criminelen bevinden.
Ook op verkeersdrukte, mate van stedelijkheid en andere sociaal-demografische en economische kenmerken kun je geen directe invloed uitoefenen (misschien wel indirect door invloed op gemeentepolitiek uit te oefenen).

(Nieuwe anoniem)
Gisteren, 19:56 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem:
Door Anoniem:
Door Anoniem: De extreem-linkse hobby club College van de Rechten van de Mens, die geen enkele officiële of formele positie heeft, bemoeit zich er weer eens tegen aan:

"Indirect kan er volgens het College voor de Rechten van de Mens bij zo'n wisselwerking sprake zijn van discriminatie. Zulke kenmerken mogen alleen onder voorwaarden gebruikt worden. Er moet dan duidelijk gemaakt worden dat het gebruik proportioneel is en hoe discriminatie voorkomen wordt."

Deze vijanden van de normale burger bedienen zich van het valse argument dat discriminatie verboden is. Dat is absoluut niet het geval in Nederland. Iedereen mag volop discrimineren met 1 uitzondering. De wetgever mag geen wetten doen uitgaan waarin op bepaalde gronden gediscrimineerd wordt. Die gronden worden in de grondwet opgesomd.

Een voorspellend algoritme kan, mag en moet wat mij betreft absoluut onderscheid maken, dus discrimineren, op vele gronden. Kijk maar eens naar de misdaadstatistieken en de achtergronden van de daders en dan snap je direct waarom discriminatie een must is.

Makkelijk praten.
Tot je zelf blootgesteld zou wordt aan zo'n discriminerende algoritme.

Als jouw wijk, keuze kleur auto, de steden die je regelmatig bezoekt, de vrienden waar je mee omgaat, je lidmaatschappen en bonuskaarten, whatever, voldoet aan de criteria van een algoritme, en jij opeens een extreem veel duurdere verzekering moet betalen dan de rest van jouw kennissen of familie (of nog erger: er geen kunt krijgen), dan praat je wel anders.
Want dan raakt het je direct.

Ik praat echt niet anders want dit is op dit moment al zo:
"Dat de premies voor autoverzekeringen al binnen één woonwijk flink kunnen verschillen komt doordat autoverzekeraars per postcode bepalen hoe groot de kans is op schades en hoe hoog de premie voor een autoverzekering dus moet worden. “Per postcode/regio kijken we niet alleen naar de urbanisatie (mate van stedelijkheid, verkeersdrukte) maar ook naar andere sociaal-demografische en economische kenmerken. Hierdoor kunnen de premies ook binnen een plaats nog van elkaar verschillen”, geeft een woordvoerder van a.s.r. aan."

Daarnaast is jouw schadeverleden bepalend voor de hoogte van de autoverzekering. Mooi laat die slechte chauffeurs maar dubbel betalen !!
Discriminatie pakt voor mij prima uit omdat ik me wel gedraag en aan de regels houdt. Moet jij ook eens proberen.

Maar wat als ze er andere willekeurige criteria aan toe voegen?
bv: je vriendenkring, waar je naar toe reist, de kleur van je voertuig, of je man of vrouw bent, of je linkshandig bent of niet. Of je blauwe ogen en blond haar hebt. Of een grote bek tegen je baas of je vrouw.
Bedenk maar iets waardoor je opeens als uitzondering wel die hoge premie krijgt. Of de politie je vaker aanhoudt.

Wat als de discriminatie een keer niet prima uitpakt voor je, ook al hou je je aan alle officiele regels en gedraag je je?
Ben je er dan nog steeds gelukkig mee?

Wat als mijn tante wielen had, zou ze dan een fiets zijn?
Dit is nonsens wat als geneuzel.. Effe de pijp neerleggen en goed kijken waar het echt over gaat. Het zijn altijd objectief vast te stellen feiten die voor de discriminatie zorgen. Over feiten kun je niet zeuren, die zijn zo.

Feiten?
In de VS is ruim 60% van de bevolking wit. Maar ze zijn maar 31% van de populatie in alle gevangenissen. 13% van de bevolking is zwart. Maar zij beslaan 33% van de populatie in alle gevangenissen. 2,5 keer zo veel.
Dat zijn feiten.
https://theworlddata.com/percentage-of-black-people-in-prison/

Maar als een algoritme (of de statistieken van een politiekorps) alleen rekening houdt met het percentage zwarte gevangenen dan loopt die bevolkingsgroep een grotere kans om aangehouden, gearresteerd en veroordeeld te worden, dan de witte bevolking.
Dat noemen ze een bias. Discriminatie gebaserd op vooroordelen.

Niet omdat zwarte mensen vaker een overtreding begaan. Maar wel dat witte mensen minder snel aangehouden worden. En vaker de dans kunnen ontspringen. Vriendelijker en coulanter behandeld worden.
Gisteren, 21:34 door dingetje - Bijgewerkt: Gisteren, 21:34
Ik ben eigenlijk wel blij met het zelfreinigende van overheidsinspectie, die voorkomt dat dit soort problemen lang blijven bestaan.

De reclassering moet ook gewoon een tool hebben om haar werk mee te doen, maar het probleem is ook dat je statistiek nooit kunt leggen over een individu. Dat gebeurt helaas wel, door iedereen; banken, verzekeraars, en dus ook zorg, om grotere populaties te managen. Blijkbaar is een individu ook helemaal niet zo belangrijk in onze maatschappij als dat men je wilt doen geloven.

De reclassering heeft gelijk als ze zeggen dat het mensenwerk is en blijft. Ik vermoed dat de tool gewoon als een paar extra ogen gezien moet worden. En als die ogen scheel kijken moeten ze worden bijgesteld.
Vandaag, 02:31 door Anoniem
Door Anoniem:

Feiten?
In de VS is ruim 60% van de bevolking wit. Maar ze zijn maar 31% van de populatie in alle gevangenissen. 13% van de bevolking is zwart. Maar zij beslaan 33% van de populatie in alle gevangenissen. 2,5 keer zo veel.
Dat zijn feiten.
https://theworlddata.com/percentage-of-black-people-in-prison/

Maar als een algoritme (of de statistieken van een politiekorps) alleen rekening houdt met het percentage zwarte gevangenen dan loopt die bevolkingsgroep een grotere kans om aangehouden, gearresteerd en veroordeeld te worden, dan de witte bevolking.
Dat noemen ze een bias. Discriminatie gebaserd op vooroordelen.

Wie zegt dat het een vooroordeel is ?

Dat is een politieke opinie .


Niet omdat zwarte mensen vaker een overtreding begaan.

Op basis van wat ? Dat is op z'n best een hypothese.
Ik lees hier alleen maar dogma .
Vandaag, 10:46 door Anoniem
Door Anoniem:
Door Anoniem:

Feiten?
In de VS is ruim 60% van de bevolking wit. Maar ze zijn maar 31% van de populatie in alle gevangenissen. 13% van de bevolking is zwart. Maar zij beslaan 33% van de populatie in alle gevangenissen. 2,5 keer zo veel.
Dat zijn feiten.
https://theworlddata.com/percentage-of-black-people-in-prison/

Maar als een algoritme (of de statistieken van een politiekorps) alleen rekening houdt met het percentage zwarte gevangenen dan loopt die bevolkingsgroep een grotere kans om aangehouden, gearresteerd en veroordeeld te worden, dan de witte bevolking.
Dat noemen ze een bias. Discriminatie gebaserd op vooroordelen.

Wie zegt dat het een vooroordeel is ?

Dat is een politieke opinie .


Niet omdat zwarte mensen vaker een overtreding begaan.

Op basis van wat ? Dat is op z'n best een hypothese.
Ik lees hier alleen maar dogma .


Dit is geen hypothese. Het was in 2014, en is nog steeds, een feit. (waar jij zo dol op bent)

https://www.thewrap.com/john-oliver-dismantles-americas-racist-prison-system/

https://www.youtube.com/watch?v=_Pz3syET3DY (kijk in ieder geval de eerste 5 minuten)
Vandaag, 16:21 door Anoniem
De in Nederland gebruikte algoritmes Static, Acute en Stable zijn ook op basis van oude N-Amerikaanse statistieken, en een pakweg 10 jaar geleden gevalideerd voor Nederlandse populatie. Veel mis met die algoritmes.
Vandaag, 17:44 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem:

Feiten?
In de VS is ruim 60% van de bevolking wit. Maar ze zijn maar 31% van de populatie in alle gevangenissen. 13% van de bevolking is zwart. Maar zij beslaan 33% van de populatie in alle gevangenissen. 2,5 keer zo veel.
Dat zijn feiten.
https://theworlddata.com/percentage-of-black-people-in-prison/

Maar als een algoritme (of de statistieken van een politiekorps) alleen rekening houdt met het percentage zwarte gevangenen dan loopt die bevolkingsgroep een grotere kans om aangehouden, gearresteerd en veroordeeld te worden, dan de witte bevolking.
Dat noemen ze een bias. Discriminatie gebaserd op vooroordelen.

Wie zegt dat het een vooroordeel is ?

Dat is een politieke opinie .


Niet omdat zwarte mensen vaker een overtreding begaan.

Op basis van wat ? Dat is op z'n best een hypothese.
Ik lees hier alleen maar dogma .


Dit is geen hypothese. Het was in 2014, en is nog steeds, een feit. (waar jij zo dol op bent)

https://www.thewrap.com/john-oliver-dismantles-americas-racist-prison-system/

https://www.youtube.com/watch?v=_Pz3syET3DY (kijk in ieder geval de eerste 5 minuten)

John Oliver is een extreem-linkse goedprater die constant daders als slachtoffers presenteert.
Een serieuze bron is de FBI die jaarlijks misdaad statistieken presenteert.:

"According to the FBI 2019 Uniform Crime Report, African-Americans accounted for 55.9% of all homicide offenders in 2019, with whites 41.1%, and "Other" 3% in cases where the race was known. Including homicide offenders where the race was unknown, African-Americans accounted for 39.6% of all homicide offenders in 2019, with whites 29.1%, "Other" 2.1%, and "Unknown" 29.3%

The per-capita offending rate for African-Americans was roughly eight times higher than that of whites, and their victim rate was similar. About half of homicides are known to be single-offender/single-victim, and most of those were intraracial; in those where the perpetrator's and victim's races were known, 81% of white victims were killed by whites and 91% of black or African-American victims were killed by blacks or African-Americans."

Dus een normaal algoritme zou op basis van deze gegevens zeer sterk moeten discrimineren op ras en 8 maal zo vaak een zwarte moeten selecteren in moordzaken. Deze groep springt er overigens ook zeer negatief uit wat betreft andere misdaad categorien.
Helaas lijden veel maatschappijen nog een verstikkende en dodelijke politieke correctheid die de inzet van doelmatige discirminerende algoritmen verhinderen. Met vele ernstige slachtoffers als gevolg.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.