image

EFF luidt noodklok over gebruik gezichtsherkenning door politie

maandag 19 februari 2018, 12:44 door Redactie, 28 reacties

Gezichtsherkenning is één van de meest indringende surveillancetechnologieën en politie en opsporingsdiensten maker er steeds meer gebruik van, zo waarschuwt de Amerikaanse burgerrechtenbeweging EFF. De technologie wordt echter met weinig toezicht en privacybescherming geïmplementeerd, wat tot foutieve systemen leidt die gekleurde mensen disproportioneel zullen raken en zelfs onschuldige mensen kunnen impliceren voor misdrijven die ze niet hebben begaan, aldus de EFF.

Onderzoekers van Georgetown Law School schatten dat de helft van alle Amerikaanse volwassenen, 117 miljoen mensen, al in de gezichtsherkenningssystemen van opsporingsdiensten zijn opgeslagen. "Dergelijke surveillance heeft een verlammend effect op de bereidheid van Amerikanen om hun rechten uit te oefenen om hun mening te geven en politiek betrokken te zijn", aldus een nieuw rapport van de EFF. De organisatie stelt dat politie al gezichtsherkenning bij politieke protesten heeft ingezet en binnenkort mogelijk ook bodycams gaat gebruiken die over gezichtsherkenning beschikken.

Gezichtsherkenningssystemen zijn echter niet 100 procent nauwkeurig en 'false positives', waarbij iemand ten onrechte voor een gezocht gezicht wordt aangezien, komen geregeld voor. Uit onderzoek blijkt dat gezichtsherkenning vaker de fout in gaat bij Afro-Amerikanen, etnische minderheden, jongeren en vrouwen dan bij blanken, oudere mensen en mannen. De EFF is dan ook bang dat gekleurde mensen vaker door fouten van dergelijke systemen zullen worden getroffen.

"Mensen zouden zich geen zorgen hoeven te maken dat ze ten onrechte van een misdrijf beschuldigd worden omdat een algoritme ten onrechte hun foto aan een verdachte heeft gekoppeld. Ze zouden zich geen zorgen moeten maken dat hun data in de handen van identiteitsdieven terechtkomt, omdat gezichtsherkenningsdatabases zijn gehackt", zegt Jennifer Lynch van de EFF en auteur van het rapport "Mensen zouden zich ook geen zorgen hoeven te maken dat ze overal worden gevolgd als gezichtsherkenning wordt gekoppeld aan de surveillancecamera's die veel steden bedekken. Zonder juridische bescherming gaan we mogelijk wel die kant op."

Reacties (28)
19-02-2018, 12:54 door Anoniem
Niet alleen met gezichtsherkenning maar ook in eigen land met kentekenherkenning gaat het geregeld fout. Blijkbaar neemt ook in eigen land de overheid het niet zo nauw met de belangen van burgers als het aankomt op betrouwbaarheid van systemen. Halfbakken is blijkbaar ook al snel goed genoeg... Zoals wel vaker geconstateerd...

Een betrouwbare overheid zoals men ons wil doen geloven is met de komst van AI dus blijkbaar in toenemende mate in het gedrang. Maar de technische incompetentie die we in toenemende mate zien ook bij grote IT bedrijven is het gevolg van de cowboyrisering van de ICT business. Gevaarlijke ontwikkeling... Zeker in combinatie met rechters die op computer gebied ongeveer analfabeet zijn. Dit heeft al eerder geleid tot vreemde uitspraken zoals je die verwacht in een derde wereld land met corrupte en incompetente rechters die meelullen met wie er op dat moment maar aan de macht is...

Leuke samenloop van omstandigheden waar we heen gaan als we niet uitkijken...
19-02-2018, 12:57 door dodo1 - Bijgewerkt: 19-02-2018, 12:57
"Maak je maar geen zorgen, die juridische bescherming brokkelt heus niet af."

Hoe kunnen we gezichtsherkenning in de war laten raken?
makes an Evil plan
19-02-2018, 12:57 door Anoniem
De organisatie stelt dat politie al gezichtsherkenning bij politieke protesten heeft ingezet

De laatste plek waar je zoiets als overheid moet inzetten (anders dan gericht tegen mensen die tijdens zo'n protest de wet overtreden, door bijvoorbeeld geweld te gebruiken). In een democratie heb je het recht om te demonstreren, en ook het recht dit anoniem te doen, zolang je handelt binnen de grenzen van de wet.
19-02-2018, 13:05 door karma4
Gezichtsherkenning en raciale segmentatie is iets van eeuwen lang. Het probleem is niet de techniek maar de mens die de techniek inzet.
19-02-2018, 13:22 door Anoniem
117 miljoen mensen, al in de gezichtsherkenningssystemen van opsporingsdiensten zijn opgeslagen.

Moeten er nog veel meer worden. Des te meer profielen in de database zitten, des te slechter het word (false positives worden steeds meer). Stop de hele planeet in een database en je kunt hem weggooien.
19-02-2018, 14:37 door Anoniem
Na introductie van Samsung en Iphone met gezichtsherkenning is het aantal mensen in de database gestegen met vele miljoenen erbij.
Gezichtsherkenning, zo leuk konden ze het nog niet eerder maken en volgende smartphones worden dan ook zonder homebutton (Apple) gepresenteerd zodat ze nog meer gezichten kunnen toevoegen aan de biometrische gegevens van personen naast de vingerafdrukken.
Tja, als je de gadgets maar leuk genoeg maakt betalen mensen maar wat graag voor hun eigen ondergang.
Jammer voor degene die ermee in aanraking gaan komen, hopelijk zijn de lessen niet al te hard of pijnlijk als je zo geconfronteerd gaat worden met je achteloosheid in gebruik van technologie en de programmatie dat je niks te verbergen hebt.
Een killer-combinatie
19-02-2018, 15:24 door Briolet
…wat tot foutieve systemen leidt die gekleurde mensen disproportioneel zullen raken…

Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.
19-02-2018, 15:56 door Anoniem
Door Briolet: Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.
Dat hoeft niet. Een donkere huid levert een grotere kans op onderbelichte beelden op waarin de ruis die een beeldsensor nou eenmaal produceert in verhouding sterker is dan bij een lichte huid. Die ruis kan allerlei contrasten en structuren opleveren die alleen maar in het digitale beeld bestaan. De algoritmes die op die beelden worden losgelaten reageren op de structuren in de ruis. Dat levert minder nauwkeurige resultaten op, en die onnauwkeurigheid uit zich als fout-positieven en fout-negatieven.

Ik heb me nooit met gezichtsherkenning bezig gehouden, maar ik ben zowel programmeur als fotograaf en ik heb me wel intensief bezig gehouden met algoritmes om digitale foto's te verwerken, inclusief bij slecht licht genomen foto's van mensen. Als mens heb ik dan vaak al geen idee welke details nou bij het gefotografeerde object of gezicht horen en welke aan ruis toegeschreven moeten worden. Ik heb er een hard hoofd in dat een algoritme of een neuraal netwerk dat feilloos kan. Ontbrekende informatie kan op een geloofwaardig ogende manier geschat worden maar niet met zekerheid gereconstrueerd. Gezichtsherkenning op een schatting loslaten levert fouten op.
19-02-2018, 16:39 door Anoniem
Door Briolet:
…wat tot foutieve systemen leidt die gekleurde mensen disproportioneel zullen raken…

Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.

Een softwarepakket zoals gezichtsherkenning moet gebouwd en getest worden. Het is gebleken dat het bouwen en testen voornamelijk door witte mannen wordt gedaan. Ze gebruiken voor het testen dan ook voornamelijk andere witte mannen. Daar wordt het systeem (onbewust) ook op getuned. Hierdoor worden afwijkingen waardoor gekleurde mensen en vrouwen herkend worden, eruit geprogrammeerd.

Dat is hetzelfde bij AI, waarvan men beweert dat die onpartijdig is. Maar als je die alleen maar anti-Trump informatie voert, zal hij dus anti-Trump worden. Alles is afhankelijk van de bouwers en testers.

Peter
19-02-2018, 16:50 door Anoniem
Door karma4: Gezichtsherkenning en raciale segmentatie is iets van eeuwen lang. Het probleem is niet de techniek maar de mens die de techniek inzet.

In dit geval heeft het te maken met het feit dat een huid met een donkere kleur minder licht reflecteert. Hierdoor kunnen er minder gezichtslijnen gemaakt worden(het systeem kan moeilijker diepte zien bij slecht belichte of onduidelijke fotos). Het resultaat bestaat dus eerder uit een combinatie van de vorm van het hoofd + de postionering van de ogen en de mond ( de delen die dus wel voldoende licht reflecteren). Aangezien het grote aantal mensen wat al in deze databases zit zal er waarschijnlijk eerder een false positive optreden. Deze mensen hoeven totaal niet op elkaar te lijken. De vorm van het hoofd + de ogen kan al voldoende zijn voor een match.
19-02-2018, 16:50 door Briolet
Door Anoniem:
Door Briolet: Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.
Dat hoeft niet. Een donkere huid levert een grotere kans op onderbelichte beelden op waarin de ruis die een beeldsensor nou eenmaal produceert in verhouding sterker is dan bij een lichte huid. Die ruis kan allerlei contrasten en structuren opleveren die alleen maar in het digitale beeld bestaan. De algoritmes die op die beelden worden losgelaten reageren op de structuren in de ruis. Dat levert minder nauwkeurige resultaten op, en die onnauwkeurigheid uit zich als fout-positieven en fout-negatieven.

Dat zou inderdaad kunnen omdat het probleem er alleen was bij de zwarte groep en niet bij de hispanic groep.

Maar als je het onderzoek leest, waar EFF naar refereert, krijg je de indruk dat het komt doordat er gewoon minder zwarte mensen, jongeren en vrouwen in de database zitten. Van de drie onderzochte pakketten, kunnen er twee nog leren. Als je die pakketten 'voed' met meer gezichten uit de rubrieken waar hij slecht scoorde, dan verdwijnen de verschillen in performance tussen de groepen.
19-02-2018, 17:23 door MathFox
Door Briolet:
Maar als je het onderzoek leest, waar EFF naar refereert, krijg je de indruk dat het komt doordat er gewoon minder zwarte mensen, jongeren en vrouwen in de database zitten. Van de drie onderzochte pakketten, kunnen er twee nog leren. Als je die pakketten 'voed' met meer gezichten uit de rubrieken waar hij slecht scoorde, dan verdwijnen de verschillen in performance tussen de groepen.
De trainingsdata is niet goed gekozen... foutje, geen dank voor de arrestatie!

En hoe zeker ben je dat bij betere trainingsdata de problemen verholpen zijn? Zou je je eigen vrijheid daarvoor in de waagschaal durven stellen?
19-02-2018, 17:32 door ph-cofi
Door dodo1: (...) Hoe kunnen we gezichtsherkenning in de war laten raken?
makes an Evil plan
Have fun!
https://www.theregister.co.uk/2017/12/20/fool_ai_facial_recognition_poison/

Onderstaande gaat niet specifiek over gezichtsherkenning:
http://www.bbc.com/news/technology-41845878
19-02-2018, 17:33 door karma4
En een gezichtsherkenning door mensen zou wel foutloos zijn?
Als gezichtsherkenning door computers beter gedaan wordt dan door mensen is er gewoon sprake van verbetering.
Dat het niet perfect is is geen probleem het gaat om het uiteindelijke resultaat van minder fouten aan beide zijden.
Niet herkennen wat herkend had moeten worden (de false nefative) t.o.v. een herkenning die niet terecht is (false positive) in vergelijking met een bestaande situatie zoals verwerking door burger marechaussees.
19-02-2018, 19:18 door Remmilou
Door karma4: En een gezichtsherkenning door mensen zou wel foutloos zijn?
Als gezichtsherkenning door computers beter gedaan wordt dan door mensen is er gewoon sprake van verbetering.
Dat het niet perfect is is geen probleem het gaat om het uiteindelijke resultaat van minder fouten aan beide zijden.
Niet herkennen wat herkend had moeten worden (de false nefative) t.o.v. een herkenning die niet terecht is (false positive) in vergelijking met een bestaande situatie zoals verwerking door burger marechaussees.

+1

Mensen zijn over het algemeen goed in het herkennen van gezichten, maar niet foutloos.
Om te zorgen dat het goed gaat in de rechtszaal zijn er protocollen voor opgesteld (specifiek voor de Oslo confrontatie) die in Nederland NIET worden nageleefd (en voor zover ik weet in veel landen niet). Met computers is het vrijwel zeker mogelijk om het proces te verbeteren, terwijl die protocollen daar niet voor nodig zijn. Dubbele kans op verbetering.
De zwakke schakel is en blijft de mens die ontwikkelt, (niet) test, implementeert en (verkeerde) conclusies trekt.
19-02-2018, 19:28 door Anoniem
Ik snap die registratie niet zo. Laten we wel zijn ik ben fel tegen misdaad maar...

Is het verkeerd om te denken dat je dan alleen de simpele crimineel in de kraag vat? Is het de moeite waard? Is het niet zo dat als je dit koppelt aan AI de gevolgen onoverkomenlijk worden?

Wellicht leiden een paar loopjongens naar hun baasjes en pak je die. De echt zware jongens blijven toch onzichtbaar en laten hun werk doen of lopen wellicht vermomd rond met een masker.

Waar zijn de cijfers? die het doel "rechtmatigen"?


Citaten:

FBI has failed to address the problem of face recognition inaccuracy.
The minimal testing and reporting conducted by FBI showed its own system was incapable of accurate identification at least 15 percent of the time. However, it refuses to provide necessary information to fully evaluate the efficacy of its system, and it refuses to update testing using the current, much larger database.

For years, FBI has failed to meet basic transparency requirements as mandated by federal law about its Next Generation Identification database and its use of face recognition.
The agency took seven years, for example, to update its Privacy Impact Assessment for its face recognition database, and failed to release a new one until a year after the system was fully operational.

The scope of FBI’s face recognition programs is still unclear. The public still does not have as much information as it should about FBI’s face recognition systems and plans for their future evolution.


Conclusion
Face recognition and its accompanying privacy and civil liberties concerns are not going away.
Given this, it is imperative that government act now to limit unnecessary data collection; instill proper protections on data collection, transfer, and search; ensure accountability; mandate independent oversight; require appropriate legal process before collection and use; and define clear rules for data sharing at all levels.

This is crucial to preserve the democratic and constitutional values that are the bedrock of American society.
19-02-2018, 20:43 door beatnix - Bijgewerkt: 19-02-2018, 20:45
Ik dacht aan een vrouw van een AIVD'er die ie vanwege de werkdruk tegenwoordig met behulp van ANPR van de mini van de buren beoogd te onderscheiden. stel je voor dat je dan een gekleurde vrouw hebt!

p.s. er zijn al beta test satellieten in de omloop voor iris scan vanuit de ruimte, niet veel maar een paar. ze zijn nog wat onscherp bij identificatie maar voldoende bij herkenning/flagging. en nog erger dan gezichtsherkenning is gedragsinterpretatie. waar veel meer fouten bij gemaakt worden dan bij gezichtsherkenning, want men kan zich nogal wat redenen bedenken wanneer men zenuwachtig zou worden, hypotheek, ruzie met partner/kids, aanklacht, overlijden, ziektebeelden zoals autisme, etc. veel meer fraudegevoelig dan gezichtsherkenning. allang bekend ook, raar dat daar zo zelden over geschreven wordt is namelijk veel vaker een reden voor onbehoorlijke stopmanouvres. wisten jullie trouwens al dat anpr cameras daar ook voor gebruikt kunnen worden, niet standaard maar het gebeurd als er bijvoorbeeld 'grip situaties' zijn.
20-02-2018, 00:42 door Anoniem
Tja.. Bedrijven buiten werknemers uit. Betalen amper belasting frauderen het liefst non stop. Overheden en bestuurders zelf frauderen net zo graag. Zelf verijking is de norm. Fataoen ia passé.

We betalen steeds meer belasting en steeds hogere prijzen terwijl we steeds minder terug krijgen. Alles is geprivatiseerd, gezondheiszorg ia dankzij de vvd boefjes onbetaalbaar geworden. Ook krijg je steeds minder zorgen staat niet de patient maar het facturatie process centraal.

Ict en robotisering brengen nieuwe mogelijkheden, hogere productiviteit. Maar zijn er over 10-15 jaar nog wel 5-10 miljoen werkenden nodig in Nederland? Of kunnen grote bedrijven als unilever, shell, ibm, ahold, kpmg, phillips, akso etc over een 10-tal jaar net zo goed af zonder honderden / duizenden menselijke medewerkers maar met een paar 100 of 1000 robots of AI drones?

En hoe zal onze zogenaamd democratische samenleving hierop reageren? Wordt 95% werkeloos en daardoor extreem armoedig en zal de 2-3% lucky rich few ook bereid zijn om belasting te betalen of zullen ze een staatgreep plegen teneinde als steenrijke elitaire minderheid de grootste invloed tekunnen blijven hebben?

Hoe ver zullen we afglijden in onze idiote struggle for attention, admiration, status, wealth and health?

Ik vrees een naar scanario waarbij dokter mengelle als een amateur bij zal worden vergeleken. Dit allemaal dankzij rechtse stemmers en leugenachtige bigbrother / stasi wannabee partijen als de VVD,PVV,PVDA,CDA & D66.
20-02-2018, 10:00 door Anoniem
Door beatnix: Ik dacht aan een vrouw van een AIVD'er die ie vanwege de werkdruk tegenwoordig met behulp van ANPR van de mini van de buren beoogd te onderscheiden. stel je voor dat je dan een gekleurde vrouw hebt!

p.s. er zijn al beta test satellieten in de omloop voor iris scan vanuit de ruimte, niet veel maar een paar. ze zijn nog wat onscherp bij identificatie maar voldoende bij herkenning/flagging. en nog erger dan gezichtsherkenning is gedragsinterpretatie. waar veel meer fouten bij gemaakt worden dan bij gezichtsherkenning, want men kan zich nogal wat redenen bedenken wanneer men zenuwachtig zou worden, hypotheek, ruzie met partner/kids, aanklacht, overlijden, ziektebeelden zoals autisme, etc. veel meer fraudegevoelig dan gezichtsherkenning. allang bekend ook, raar dat daar zo zelden over geschreven wordt is namelijk veel vaker een reden voor onbehoorlijke stopmanouvres. wisten jullie trouwens al dat anpr cameras daar ook voor gebruikt kunnen worden, niet standaard maar het gebeurd als er bijvoorbeeld 'grip situaties' zijn.

Ben jij wel in orde? Iris scanning uit de ruimte? Ben je in de war met de IRIS satellieten?
Weet je wat, ga je aluminium hoedje maar gauw opzoeken.

Overigens worden er met gedrags interpretatie en AI behoorlijk meters gemaakt de laatste tijd. Kun je me uitleggen hoe je een autist-achtig iemand herkend of iemand met een ander autisme spectrum stoornis door naar gedrag te kijken?
20-02-2018, 10:48 door karma4
Door Anoniem:
Door karma4: Gezichtsherkenning en raciale segmentatie is iets van eeuwen lang. Het probleem is niet de techniek maar de mens die de techniek inzet.

In dit geval heeft het te maken met het feit dat een huid met een donkere kleur minder licht reflecteert. Hierdoor kunnen er minder gezichtslijnen gemaakt worden(het systeem kan moeilijker diepte zien bij slecht belichte of onduidelijke fotos). Het resultaat bestaat dus eerder uit een combinatie van de vorm van het hoofd + de postionering van de ogen en de mond ( de delen die dus wel voldoende licht reflecteren). Aangezien het grote aantal mensen wat al in deze databases zit zal er waarschijnlijk eerder een false positive optreden. Deze mensen hoeven totaal niet op elkaar te lijken. De vorm van het hoofd + de ogen kan al voldoende zijn voor een match.

Gezichtsherkenning gaat alleen door met voldoende kenmerkende punten. Mensen doen niets anders.
Waar wij als Nederlanders zelf als mens al problemen hebben anders gekleurden goed te onderscheiden kun je dat beter aan een goed getraind algoritme overlaten. Deze lijken volgens de laatste resultaten het beter te doen dan mensen.
Ik ga ook geen hardloopwedstrijd van een auto winnen. Dat verplaatsten van massa in hoge snelheid daar is dat ding veel beter dan een mens in. Technisch argumenten zijn een momentopname en worden snel achterhaald.

De betere vragen die je kan stellen is welke probleem heb je er mee dat in een publieke ruimte herkend kan worden.
Andersom, wie hebben er het meest belang bij dat je niet herkend kan worden in de publiek ruimte.

Laten we eens een andere noodklok luiden:
https://nos.nl/artikel/2218326-politiebond-recherche-zwaar-overbelast-nederland-wordt-narcostaat.html
https://www.nu.nl/buitenland/5141813/politie-berlijn-laat-tienduizenden-zaken-lopen-overbelasting.html
https://www.ad.nl/buitenland/frankrijk-versterkt-politie-met-10-000-agenten-voor-probleemwijken~a718eae3/
https://www.hartvannederland.nl/nieuws/2018/meer-capaciteit-voor-bloedmonsters-van-drugstesten-in-het-verkeer/
Het asociaal gedrag leidt tot een hogere belasting bij beveiligers - handhavers. Daar is met budgettering geen rekening mee gehouden. Het lijkt wel een centraal geleide economie waar de misdaad in een voorspelbaar aantal is toegestaan.
De politie in Nederland is ca 50.000 man sterk. Hoeveel moeten het er worden, 100.000?
20-02-2018, 10:48 door Anoniem
Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.

Volgens mij moet je je wat meer verdiepen in een onderwerk, voordat je met beschuldigingen gaat strooien ;)

The Inherent Bias of Facial Recognition
https://motherboard.vice.com/en_us/article/kb7bdn/the-inherent-bias-of-facial-recognition
20-02-2018, 12:11 door Anoniem
Door Anoniem: Na introductie van Samsung en Iphone met gezichtsherkenning is het aantal mensen in de database gestegen met vele miljoenen erbij.
Gezichtsherkenning, zo leuk konden ze het nog niet eerder maken en volgende smartphones worden dan ook zonder homebutton (Apple) gepresenteerd zodat ze nog meer gezichten kunnen toevoegen aan de biometrische gegevens van personen naast de vingerafdrukken.
Tja, als je de gadgets maar leuk genoeg maakt betalen mensen maar wat graag voor hun eigen ondergang.
Jammer voor degene die ermee in aanraking gaan komen, hopelijk zijn de lessen niet al te hard of pijnlijk als je zo geconfronteerd gaat worden met je achteloosheid in gebruik van technologie en de programmatie dat je niks te verbergen hebt.
Een killer-combinatie
Wat is dit voor trol reactie? Jammer dat dergelijk leugens door de moderatie heen komen. Bangmakerij en stemming makerij die de kwaliteit van security.nl keer op keer te kort doen..
20-02-2018, 13:26 door karma4
Door Anoniem: ]
Volgens mij moet je je wat meer verdiepen in een onderwerk, voordat je met beschuldigingen gaat strooien ;)
The Inherent Bias of Facial Recognition
https://motherboard.vice.com/en_us/article/kb7bdn/the-inherent-bias-of-facial-recognition
Uit de artikel: "The problem of bias in facial recognition systems is perhaps one of the easiest to understand and to solve: a computer only knows the kinds of faces it has been shown."
Dacht je dat het voor mensen die gezichten moeten leren herkennen anders zou zijn? Totaal geen verschil.
Het lukt me ook niet zebra's of giraffes's uit elkaar te houden. Toch zijn ze geheel uniek in patronen en hebben die beestjes er geen enkele moeite mee. Kwestie van trainen.
Een mens is van nature helaas zeer selectief rassenhaat wordt aangeleerd, kun je met computers makkelijker vermijden.
20-02-2018, 15:03 door Anoniem
Door karma4: Gezichtsherkenning en raciale segmentatie is iets van eeuwen lang. Het probleem is niet de techniek maar de mens die de techniek inzet.

Riekt naar: het geweer doodt niet, maar de mens die 'em gebruikt wel.

En omdat de mens hier de zwakke schakel is moet je dit soort technieken of producten helemaal niet willen hebben of maken.
20-02-2018, 16:55 door karma4
Door Anoniem:
Door karma4: Gezichtsherkenning en raciale segmentatie is iets van eeuwen lang. Het probleem is niet de techniek maar de mens die de techniek inzet.

Riekt naar: het geweer doodt niet, maar de mens die 'em gebruikt wel.

En omdat de mens hier de zwakke schakel is moet je dit soort technieken of producten helemaal niet willen hebben of maken.
Verdorie je raakt inderdaad de zwakke plek als je het teveel buiten context zet.
Maar ook met wapens wil je dat het zeer beperkt niet door jan en alleman beschikbaar is. Voor de handhavers en dan nog daar niet altijd standaard en volgens regels en procedures wel beschikbaarheid van wapens. De privacy en bescherming moet daarvandaan komen, niet vanuit een zelfrichting. Als de bedreiging zwaar gewapend kan zijn moet je daar iets tegenover kunnen zetten.
Het artikel hier gaat het over gebruik door handhavers.

Als het nu de eigen interne veiligheidsdienst van een politiek partij zou zijn, dan hebben we een fout verhaal.
20-02-2018, 17:33 door SPer
iemand deze wel eens gezien : http://www.imdb.com/title/tt1839578/ ?
20-02-2018, 17:36 door SPer
software
Door Briolet:
…wat tot foutieve systemen leidt die gekleurde mensen disproportioneel zullen raken…

Volgens mij is EFF hier bezig met stemming makerij, want in tegenstelling tot de mens zelf, zal een softwareproces zoals gezichtsherkenning juist ongevoelig zijn voor huidskleur.

Dacht u echt dat de software niet zo in te stellen is dat een getint persoon verdachter is dan iemand met een Arisch uiterlijk ?


Arisch , u weet wel, waar de Nazi's zo gek op waren
20-02-2018, 21:46 door beatnix - Bijgewerkt: 20-02-2018, 21:47
@Anoniem, 20/2 10:00;

Ben jij wel in orde? Iris scanning uit de ruimte? Ben je in de war met de IRIS satellieten?
Weet je wat, ga je aluminium hoedje maar gauw opzoeken.

Overigens worden er met gedrags interpretatie en AI behoorlijk meters gemaakt de laatste tijd. Kun je me uitleggen hoe je een autist-achtig iemand herkend of iemand met een ander autisme spectrum stoornis door naar gedrag te kijken?

Ja hoor, mag niet klagen. Iris scanning uit de ruimte zij ik, ja, en er zwaait al wat aan proto type rondom de aarde. Daarvoor heb ik een alu hoedje niet nodig, en die ga ik daarvoor ook niet opzoeken. Overigens is dat totaal waardeloos met een deel van ELF en daaronder, dat even terzijde, want er zijn meer technieken voorhanden inmiddels.

Niet alleen heb ik wat meekregen over de ontwikkelingen op vlak van gedragsherkenning, ik mag ook weten ook dat er statistisch meer fouten met gedragsherkenning worden gemaakt dan met gezichtsherkenning en dat wordt niet tot nauwelijks besproken? Nu mag ik weten dat je graag phished, en waarom, toch zal ik je wat vertellen;

Bij gedragsherkenning wordt vooral naar een combinatie mimiek, lichaamsbeweging ten opzichte van meerdere objecten gekeken op dat moment en de 'meters' worden vooral gemaakt met het aan elkaar knopen van data en deze vergelijken met behulp van projecten die vroeger 'indect' werden genoemd. Dus kijken of iemand zich zo ook vaker verhandeld of alleen op dat moment. Men doet in de wetenschap wat spannend over mimiek en oogbeweging alleen het blijft meer gissen dan weten, op het moment, het vergelijk is het sterke punt vooral, en dat is dus opgeslagen materiaal als patroon definities van diegene vergelijken. En de rest mag u gerust beogen te googlen, alleen er is niet veel bron en bronvermelding voorhanden want sommigen vinden het eng wanneer domme burgers dit weten, sommige andere onderzoekers weten niet zo waar ze voor werken en weer anderen vinden zichzelf een soort van spannende james bond door hun mondje dicht te houden bij de medemens (meestal tegen betaling). dan hebben we nog niet gehad over de opinie benders/bashers en what not in het hele vals nieuws circus tegenwoordig, want velen vergeten;

toenemend vals nieuws betekend toenemende aanval op feiten, steeds, hand in hand. inherent aan elkaar verbonden. doe er maar liever niet aan mee, vragen stellen in plaats van wijzen is the key. er zijn er een aantal tegenwoordig die de behoefte van wijzen aan de onzekerheid van status perceptie knopen en zo entiteiten binnen groep beogen tegen elkaar uit te spelen waarbij dat aantal meent de derde met het bot te zijn, zogezegd. geen aluhoedje op zetten aub, men zou eens vergeten te lezen wat het nu betekend die woorden die ik hier mag schrijven.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.