image

IBM ontwikkelt surveillancesysteem dat huidskleur herkent

vrijdag 15 augustus 2014, 11:59 door Redactie, 7 reacties

De Amerikaanse stad Boston heeft vorig jaar een surveillancesysteem van IBM ingezet dat in staat was om mensen aan de hand van hun huidskleur, lengte en kleding te monitoren. De camera's en bijbehorende surveillancesoftware werden tijdens twee concerten in Boston ingezet.

De camera's werden bediend via een dashboard dat ook over een tool beschikte om op mensen te zoeken. Daarbij konden beheerders mensen op kaalheid, gezichtskleur en kledingmateriaal selecteren. Volgens overheidsfunctionarissen waren de tests in mei en september vorig jaar bedoeld om te kijken of de nieuwe software geschikt was voor het managen van grote openbare evenementen. Het stadsbestuur besloot uiteindelijk geen langetermijncontract voor de software af te sluiten omdat er geen praktische toepassing was bij het beschermen van de openbare veiligheid, zo laat een woordvoerster tegenover Dig Boston weten.

Image

Reacties (7)
15-08-2014, 12:34 door Anoniem
Totaal racistisch, man! Gewoon maar naar mensen kijken en hun huidskleur opmerken. DAT MAG HELEMAAL NIET!!1!

Serieus hebben we het hier over Boston dat compleet en onmiddelijk op totale lockdown ging en het leger inzette om twee daders te pakken, en nu dus groots op technologie inzet om maar iedereen altijd te volgen want er kon weleens ooit een rotte appel tussen zitten. Want technologie is gewoon altijd beter dan signalen vanuit de bevolking opvangen. Veel betrouwbaarderder, weetsjewel. En leuker, want je kan zo mooi naar beelden kijken en software "objectief" laten doen en loopt dus niet het risico voor vooringenomen of rasisctisch uitgemaakt te worden.
15-08-2014, 12:51 door Anoniem
Wel grappig dat ze in dat politiek correcte america geen probleem er mee hebben om te adverteren met een camera die "African Americans" detecteerd.... Het is zo alleen maar een ander woord en nog steeds dezelfde gedachte....
15-08-2014, 13:06 door Anoniem
De titel is security.nl onwaardig. Het lijkt er op alsof dit er op is gericht om rascistische profiling te doen. Dit is echter een tool die diverse karakteristieken van een persoon kan herkennen. De huidskleur is er daar toevallig eentje van. Als die dat niet zou kunnen, zou je gelijk veel meer false-positives krijgen.

Ik vind het wel vreemd dat daar vervolgens African American staat. Als dus een Surinamer door het beeld loopt, wordt die niet herkend?

Peter
15-08-2014, 13:29 door Anoniem
Ze hebben daar bij IBM werkelijk *niets* geleerd in de tussenliggende jaren sinds ze de Duitsers zo goed hebben geholpen met het opsporen van Joden!
15-08-2014, 20:40 door Anoniem
Twee in een week in de categorie: Hit & miss detectie van alles wat niet relevant is. De andere was nog leuker:

[URL=https://www.schneier.com/blog/archives/2014/08/automatic_scann.html]Automatic Scanning for Highly Stressed Individuals[/URL].

In combinatie zijn ze ook leuk: Eerst door een 'verkeerde' huidskleur, haarkleur of kleding het ene alarm foutief af laten gaan, vervolgens door de intimidatie van de half opgeleide tovenaarsleerlingen behoorlijk gestressed raken en dus gaat ook het andere alarm af...
15-08-2014, 21:26 door Anoniem
Tsja , en voor 5 december willen ze het foutloos hebben draaien in Nederland .
21-08-2014, 21:30 door Anoniem
Als je weet dat de persoon die je zoekt een blanke/aziaat/donker persoon is, dan is het toch wel handig om tegen je software te kunnen zeggen dat je daar naar op zoek bent.

Dat een tool ook voor racistische doeleinden gebruikt wordt betekend niet dat het racistisch is. Mensen zijn hier echt aan het zoeken naar problemen in de comments.

Ben al lang blij dat IBM er over nadenkt, en dat het niet meer het gênante probleem was met de webcams die geen facial herkenning hebben voor donker getinte mensen.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.