Abuse Melding

Je hebt een klacht over de onderstaande posting:

22-02-2024, 17:17 door Anoniem

Het probleem met deze algoritme's is dat ze gevoed worden met positive training... Dan krijg je een trainings-bias... Zie het als kanker foto's training... je leert een algoritme of AI met foto's van kanker.. Hoe kom je aan foto's van kanker? Nou, van ziekenhuizen en meer specifiek van oncologie... Hoe markeren oncologen hun kanker's? met maat-stickers... dus je algoritme leert dat als je een vlek hebt met iets wat lijkt op een rolmaat, dan heb je kanker. Je hebt namelijk een algo gevoedt met bias materiaal... niet met data van kanker, maar met foto's in een bepaalde bias-setting... dus leer je je algo niet kanker te herkennen, maar de bias setting... Dito voor monocam... je leert niet de algo een telefoon aan het hoofd te herkennen, maar de bias... immers, je voedt de algo met foto's van mensen die hun telefoon vast houden tegen het oor.... FOUT... je voedt de algo met foto's van mensen die hun HAND naast hun hoofd houden.... Dus alles wat lijkt op een hand naast een hoofd is dan een telefoon ...

Beschrijf je klacht (Optioneel):

captcha