Abuse Melding

Je hebt een klacht over de onderstaande posting:

22-01-2022, 14:12 door Anoniem

kunstmatige intelligentie Hoe stereotypen in de zoekmachine belanden (en er moeilijk uit te halen zijn) door Kim Bakker, 21 januari 2022 https://www.volkskrant.nl/wetenschap/hoe-stereotypen-in-de-zoekmachine-belanden-en-er-moeilijk-uit-te-halen-zijn~b98f4662/ Taalmodellen zijn niet neutraal. UvA studie over de ingebakken vooroordelen van zelflerende taalmodellen: Rochelle Choenni: ‘Als we de modellen trainden met artikelen van het linkse tijdschrift The New Yorker, zag je bijvoorbeeld dat de associaties met ‘police officer’ negatiever werden. Als we artikelen van het rechtse Fox News gebruikten, werden de associaties met ‘police officer’ juist positiever.’ [ https://arxiv.org/abs/2109.10052 ]

Beschrijf je klacht (Optioneel):

captcha