image

Politie gaat DNA-succesmeter bij opsporingsonderzoek inzetten

maandag 29 april 2019, 16:07 door Redactie, 23 reacties

De politie gaat later dit jaar de "DNA-succesmeter" inzetten, een softwaretool die informatie biedt over de kans om op de plaats delict bruikbare dna-sporen aan te treffen. De tool is ontwikkeld door de politie, het Openbaar Ministerie en het Nederlands Forensisch Instituut (NFI).

"Het is een computerprogramma dat werkt met objectieve data over DNA. De meter geeft aan hoeveel kans een spoor maakt als het wordt ingestuurd", zegt Anna Mapes, forensisch adviseur bij de politie. De tool maakt gebruik van informatie afkomstig uit eerdere strafzaken en wetenschappelijk onderzoeken. Op het politiebureau wordt uiteindelijk gekeken welke sporen de meeste kans op succes bieden, waarna die naar het NFI worden gestuurd. De tool moet dan ook als hulpmiddel worden gezien, merkt Mapes op.

De politie ziet in de DNA-succesmeter een eerste stap in het delen van data in de forensische keten. "We streven ernaar om in de toekomst een gemeenschappelijk systeem te hebben voor politie, NFI en OM, zodat we van elkaars data gebruik kunnen maken. Dat is nu nog niet mogelijk, maar de DNA-succesmeter, nu nog een prototype, is daar een eerste voorbeeld van", laat Linda Schreuders weten, projectleider bij de politie.

Volgens de politie laat de DNA-succesmeter zien hoe waardevol een tool kan zijn waarin gegevens uit verschillende forensische informatiesystemen worden gecombineerd (pdf). "Daarom streven we naar een nieuwe systematiek op het gebied van informatiesystemen voor de hele forensische keten." De DNA-succesmeter, die gefinancierd is door het ministerie van Justitie en Veiligheid, wordt naar verwachting dit najaar inzetbaar.

Reacties (23)
29-04-2019, 17:27 door Anoniem
Vervang 'meter' door 'indicator' dan heb teminste niet het gevoel dat je in show met Ron Brandsteder zit.
29-04-2019, 17:38 door Anoniem
Ik heb geen idee wat het doet en hoe het dat doet maar de beschrijving laat me de haren te berge rijzen.

Door Anoniem: Vervang 'meter' door 'indicator' dan heb teminste niet het gevoel dat je in show met Ron Brandsteder zit.
Dat maakt het er maar een heel klein beetje beter van.

Bottom line, ze hebben een nieuw speeltje en zijn er blij mee. Maar wat de impact is en gaat zijn, geen touw aan vast te knopen. Oftewel, een eersteklas PR-faal. Doen ze dat expres of zijn ze echt zo... onhandig?
29-04-2019, 19:36 door karma4
Door Anoniem: Vervang 'meter' door 'indicator' dan heb teminste niet het gevoel dat je in show met Ron Brandsteder zit.
Een softwareprogramma, dit is gewoon een big-data AI toepassing. In nederlands "een beslissings- ondersteunend systeem". Dat is niet mis met eis nu ml, text analytics in de informatieketen.
29-04-2019, 20:02 door Anoniem
@karma4,

Maar er dient weldegelijk een ethische discussie te komen
t.b.v. de ethische controle van zogenaamde wettelijkheid van beslissingsondersteunde systemen,
algoritmen en AI.

Niet omdat een bedrijf als PwC of Google of Elton Musk er klaar voor zijn
en als het technisch kan, dan moet het dan ook meestal maar worden ingevoerd,
vindt men, en de massa kan daar toch niet goed over oordelen is de mening bij de voorstanders,
maar dit zou alleen moeten, omdat we het echt willen met z'n allen.

Lees: https://marietjeschaake.eu/nl/controleer-algoritmen-op-wettelijkheid

Je kan en mag natuurlijk Big Tech in deze niet zomaar op de blauwe ogen
en het voortgezette gelobby geloven, ze zijn al enkele keren gebleken flinks achterbaks te willen opereren,
want voor de gigantische smeer likken deze katten steds de kandeleer.

luntrus
29-04-2019, 23:08 door Anoniem
Door Anoniem: @karma4,

Maar er dient weldegelijk een ethische discussie te komen
t.b.v. de ethische controle van zogenaamde wettelijkheid van beslissingsondersteunde systemen,
algoritmen en AI.
Wat? Nee natuurlijk niet, jij "privacy vechter"[sic] die je bent. Zo maar een beetje willen discussieren en niet gewoon de authoriteit van de overheid willen accepteren. Die doen ook maar gewoon hun werk weet je. De idee!
30-04-2019, 06:49 door spatieman
wat mij meer zorgen maakt, dat de pet dit inzet zonder verdere gerechtelijke toestemming..
de burger in 0031 heeft als de stempel, verdacht, tot je onschuld bewezen is worden, maar dan alsnog ben je verdachte.
30-04-2019, 08:31 door PietdeVries
Door spatieman: wat mij meer zorgen maakt, dat de pet dit inzet zonder verdere gerechtelijke toestemming..
de burger in 0031 heeft als de stempel, verdacht, tot je onschuld bewezen is worden, maar dan alsnog ben je verdachte.

Volgens mij maken we hier (onder ander door te weinig informatie en niet willen lezen) van een mug een olifant.

Zoals ik dit artikel lees is de "DNA Succesmeter" een app die politie vertelt welk spoor of welk stukje lijk ze op moeten sturen naar het NFI om daar echt iets nuttigs uit te krijgen. Dat helpt het NFI omdat ze minder (maar nuttiger) sporen hoeven te analyseren, en de politie ook - omdat ze minder (maar nuttiger) sporen hoeven op te sturen.

Daar hoeft geen ethische discussie over te worden gevoerd - over de navigatie apparatuur in de auto's (die ook een zo optimaal mogelijke route naar succes moeten geven) voeren we ook geen ethische discussie...
30-04-2019, 08:54 door [Account Verwijderd] - Bijgewerkt: 30-04-2019, 08:56
Door spatieman: wat mij meer zorgen maakt, dat de pet dit inzet zonder verdere gerechtelijke toestemming..
de burger in 0031 heeft als de stempel, verdacht, tot je onschuld bewezen is worden, maar dan alsnog ben je verdachte.

De fantasie weer op hol met F1 Verstappen speed: Brave new world scenario uit het imaginaire jaar 2540.
Druktemaker.
Het verbaast mij dat onze dystopische huisscribent the Matrix (nog) niet van zich laat horen.

pfff.

De tool is slechts een evaluatie algoritme om efficient te kunnen beoordelen of bewijsmateriaal verzameld bij diverse opsporingstechnieken voldoen zodat dossiers m.b.t. gerechtelijk onderzoek, wellicht ook in tweede plan kunnen worden gekoppeld zodat bewijsmateriaal waarmee een verdachte moet kunnen worden bezwaard voldoende rechtsgrond heeft anders wordt een zaak niet ontvankelijk verklaard.
30-04-2019, 10:04 door Anoniem
Door Anoniem:[...] niet gewoon de authoriteit van de overheid willen accepteren. Die doen ook maar gewoon hun werk weet je. De idee!

Dus het overheidsapparaat heeft (volgens jou stelling) altijd gelijk. Maakt geen verkeerde inschattingen of fouten. (De overheid is nog nooit teruggefloten door politici, meningsuiting van het volk of een rechter)

En het overheidsapparaat mag vooral niet bekritiseerd worden. (het lijkt de DDR wel)
30-04-2019, 10:18 door Anoniem
Door Anoniem:
Maar er dient weldegelijk een ethische discussie te komen
t.b.v. de ethische controle van zogenaamde wettelijkheid van beslissingsondersteunde systemen,
algoritmen en AI.

Waarom dat? Als er geavanceerde systemen komen om de waarheid aan het licht te brengen dan heeft de inzet
daarvan altijd de voorkeur boeven allerlei vage ethische en wettelijke normen en grenzen.

De bedoeling van allerlei rechtsbeschermende wetten kan nooit zijn om de waarheid te verbergen of de nek om te
draaien. Het doel is om een verdachte te beschermen tegen onterechte vervolging. Maar als die verdachte in
werkelijkheid een dader is en dit alleen maar onbekend is door gebreken in opsporingsmechanismen dan is dat
nooit een reden om dat feit te verbergen "want wet" of "want ethiek".

Als je niet wilt dat je vervolgd wordt voor een moord dan moet je gewoon geen moord plegen. Niet een moord
plegen en je dan later beroepen op allerlei wetten en ethiek rond opsporing en vervolging.
30-04-2019, 10:24 door Anoniem
Privacy lijkt me geen issue, wat me wel grappig lijkt is dat het niveau van de gemiddelde politie agent daarmee (weer) omlaag kan.
De huidige agent kan al niet meer werken met inzicht, maar heeft protocollen. Kan niet meer werken met kennis van de omgeving, want hij is niet meer plaatsgebonden.
Hiermee maak je het instinct van de agent ook overbodig, want het apparaat vertelt wel hoe het zit.

Kortom agent 3.0 kan straks een gewone robot zijn
30-04-2019, 12:02 door karma4 - Bijgewerkt: 30-04-2019, 12:09
Door Brainpresser: ….
De tool is slechts een evaluatie algoritme om efficient te kunnen beoordelen of bewijsmateriaal verzameld bij diverse opsporingstechnieken voldoen zodat dossiers m.b.t. gerechtelijk onderzoek, wellicht ook in tweede plan kunnen worden gekoppeld zodat bewijsmateriaal waarmee een verdachte moet kunnen worden bezwaard voldoende rechtsgrond heeft anders wordt een zaak niet ontvankelijk verklaard.
Wat ik lees is inderdaad een adviserend systeem waarbij de agent alles zelf in de hand houdt.
Bij de proeven met spelletjes Schaak / Go als adviserend systeem was de lol om dat advies blindelings te volgen door een persoon die normaliter kansloos zou zijn. Hier hebben we met meer impact en onzekerheid te maken.

Je geeft netjes aan hoe de discussie over AI KI ML Machine learning gevoerd. Zoek een voorbeeld war duidelijk is dat het niet zo de bedoeling was en geef de conclusie dat het dan allemaal niet goed is. Verklaar de ander bij voorbaat fout/schuldig

Anoniem 10:24 ….
De huidige agent kan al niet meer werken met inzicht, maar heeft protocollen. Kan niet meer werken met kennis van de omgeving, want hij is niet meer plaatsgebonden.
Hiermee maak je het instinct van de agent ook overbodig, want het apparaat vertelt wel hoe het zit.
Die protocollen voor de politie zijn een onderbouwing voor de rechtszekerheid. Je wilt geen handhaving gebaseerd op onzekere vermoedens, het humeur en persoonlijke ideeën. Je mag er heel wat van doorwerken voordat je wat mag. https://www.politieacademie.nl/onderwijs/onderwijsaanbod. Als je denkt dat het de aftandse veldwachter is, dan zit je goed mis. Forensisch en nog wat zaken is wo universitair, probeer het maar.
30-04-2019, 12:19 door karma4 - Bijgewerkt: 30-04-2019, 12:34
Door Anoniem: @karma4,
…...
Maar er dient weldegelijk een ethische discussie te komen t.b.v. de ethische controle van zogenaamde wettelijkheid van beslissingsondersteunde systemen,algoritmen en AI.

Niet omdat een bedrijf als PwC of Google of Elton Musk er klaar voor zijn en als het technisch kan, dan moet het dan ook meestal maar worden ingevoerd, vindt men, en de massa kan daar toch niet goed over oordelen is de mening bij de voorstanders,maar dit zou alleen moeten, omdat we het echt willen met z'n allen.
….
luntrus
Ik zou KPMG nemen voor PwC of Tesla, https://www.accountancyvanmorgen.nl/2019/03/04/kpmg-helpt-amsterdam-algoritmen-te-controleren/. Met KPMG kom je wel helaas in de accountancy zaken waarmee je op het hellend vlak van verkeerder verklaringen kan komen om verantwoordelijke bestuurders bij voorbaat onschuldig te laten zijn.

AI, ML machine learning, is niet echt nieuw. Het is het voortborduren op Operational Research optimalisatie van bedrijfsprocessen. Dat vakgebied is in vanaf de jaren 40 sterk ontwikkeld. Pas met het goedkoper worden van de rekenkracht is een ieder de laatste tijd op die trein gaan springen.

Een ethische discussie lijkt me zeer gewenst. Marietje Schaak is veel te oppervlakkig. Een goede start lijkt me:
https://edps.europa.eu/sites/edp/files/publication/18-03-19_online_manipulation_en.pdf let even op pag 12 bovenaan.

Wat ik tot nu toe merk is dat als een machine het beter consequenter kan doen als een mens er toch weerstand is. Het lijkt of men liever een onvoorspelbare met willekeur omgeven despoot wil omdat dat menselijk is. Vreemd....
30-04-2019, 13:07 door PietdeVries
Door Anoniem: Privacy lijkt me geen issue, wat me wel grappig lijkt is dat het niveau van de gemiddelde politie agent daarmee (weer) omlaag kan. De huidige agent kan al niet meer werken met inzicht, maar heeft protocollen. Kan niet meer werken met kennis van de omgeving, want hij is niet meer plaatsgebonden.

Als wij als maatschappij een ambtenaar weigeren te betalen naar z'n capaciteiten, dan dwing je ze eigenlijk toch tot dit soort acties? Een bekende is "if you pay peanuts, you get monkeys". Wil je dus slimmere agenten, dan moet je het voor die mensen aantrekkelijk maken om voor de politie te gaan werken. Want zeg nou zelf - zou jij tegen dat salaris uitgescholden en bespuugd willen worden?
30-04-2019, 13:27 door Anoniem
Kijk als alles goed gaat en er strikt "volgens het boekje en de voorgeschreven protocollen" wordt gewerkt,
zal er inderdaad weinig mis kunnen gaan.

Maar er is helaas in het verleden ook sprake geweest van juridische dwalingen,
zelfs mensen die onterecht vastzaten en manipulatie en fabricatie van bewijs,
dan moet er dus een controleur zijn die de controlerenden controleert
ofwel ter zake deskundigen, die de algoritmen toetsen.

Het getrainde aapjes gedoe, waar PietdeVries het over heeft, houdt wel degelijk gevaren in,
zelfs als er helemaal ter goeder trouw wordt gehandeld.
Waar technisch inzicht ontbreekt staat de weg open naar dwaling
en mensen zijn natuurlijk niet op elk terrein deskundig.

J.O.
30-04-2019, 16:25 door Anoniem
Door Anoniem:Waarom dat? Als er geavanceerde systemen komen om de waarheid aan het licht te brengen dan heeft de inzet daarvan altijd de voorkeur boeven allerlei vage ethische en wettelijke normen en grenzen.

Dit is een ICT-logica. Ja of nee. 1 of 0. Iets anders kan niet.
Maar wat is de waarheid?
Er is jouw versie van de waarheid, er is mijn versie van de waarheid. De waarheid is een interpretatie van de observator.
Als je 10 getuigen van een moord of ongeluk spreekt, zul je 10 verschillende verhalen horen.

Kan een geavanceerd systeem hierbij helpen om de ruis te verminderen? Ja.
Maar het zal nooit het laatste oordeel mogen vellen.
Zo'n systeem kan geen nuancen en context meewegen. iets wat een mens wel kan.
Iets kan voor de wet een misdaad zijn, maar toch met een goede bedoeling gepleegd worden. Een systeem kan daar niet mee omgaan. (En jij hebt daar blijkbaar ook moeite mee)


Door Anoniem:Als je niet wilt dat je vervolgd wordt voor een moord dan moet je gewoon geen moord plegen. Niet een moord plegen en je dan later beroepen op allerlei wetten en ethiek rond opsporing en vervolging.

Maar wat als je beschuldigd wordt van die moord, maar het niet gedaan hebt?
Mag je je dan ook niet beroepen op diezelfde wetten. Want beschuldigd, is volgens jou schuldig. Had je het maar niet moeten doen.

Dat je beschuldigd en vervolgd wordt, betekent nog niet dat je het ook gedaan hebt.
Het verleden laat zien dat een grerechterlijke dwaling mogelijk is. Zowel tijdens het onderzoek, het proces, of bij de veroordeling.
30-04-2019, 18:56 door karma4
Door Anoniem: ...
Zo'n systeem kan geen nuancen en context meewegen. iets wat een mens wel kan.
Iets kan voor de wet een misdaad zijn, maar toch met een goede bedoeling gepleegd worden. Een systeem kan daar niet mee omgaan. (En jij hebt daar blijkbaar ook moeite mee). ….
Zo'n systeem is perfect in staat grijstinten te geven in vele scenarios met kansen en verwachtingen.
Kansrekening is floating in een oneindig hoeveel mogelijkheden tussen [0,-,1].
Het is echt niet binair boolean of de drie waarden (weet niet - NULL) van een DBMS.

Door Anoniem:..Maar wat als je beschuldigd wordt van die moord, maar het niet gedaan hebt?
Mag je je dan ook niet beroepen op diezelfde wetten. Want beschuldigd, is volgens jou schuldig. Had je het maar niet moeten doen.

Dat je beschuldigd en vervolgd wordt, betekent nog niet dat je het ook gedaan hebt.
Het verleden laat zien dat een grerechterlijke dwaling mogelijk is. Zowel tijdens het onderzoek, het proces, of bij de veroordeling.
Die gerechtelijke dwalingen waren vroeger menselijke beslissingen. Het is een recht niet binair maar floating, overtuigend genoeg bewezen is niet met absolute zekerheid bewezen. Gewoon omdat je niet alles kunt weten.
30-04-2019, 22:39 door Anoniem
Door karma4:
Door Anoniem: ...
Zo'n systeem kan geen nuancen en context meewegen. iets wat een mens wel kan.
Iets kan voor de wet een misdaad zijn, maar toch met een goede bedoeling gepleegd worden. Een systeem kan daar niet mee omgaan. (En jij hebt daar blijkbaar ook moeite mee). ….
Zo'n systeem is perfect in staat grijstinten te geven in vele scenarios met kansen en verwachtingen.
Kansrekening is floating in een oneindig hoeveel mogelijkheden tussen [0,-,1].
Het is echt niet binair boolean of de drie waarden (weet niet - NULL) van een DBMS.

Grijstinten zijn geen context en nuancn. Niets alles in kwantificeerbaar.


Door Anoniem:..Maar wat als je beschuldigd wordt van die moord, maar het niet gedaan hebt?
Mag je je dan ook niet beroepen op diezelfde wetten. Want beschuldigd, is volgens jou schuldig. Had je het maar niet moeten doen.

Dat je beschuldigd en vervolgd wordt, betekent nog niet dat je het ook gedaan hebt.
Het verleden laat zien dat een grerechterlijke dwaling mogelijk is. Zowel tijdens het onderzoek, het proces, of bij de veroordeling.
Die gerechtelijke dwalingen waren vroeger menselijke beslissingen. Het is een recht niet binair maar floating, overtuigend genoeg bewezen is niet met absolute zekerheid bewezen. Gewoon omdat je niet alles kunt weten.

Machines maken nooit fouten (?)
Maar hun programmeeurs zijn mensen, en maken dus wel fouten. Dus hun creaties (zo'n systeem) dus ook.
QED.
30-04-2019, 23:44 door Krakatau
Door Anoniem:
Door Anoniem: @karma4,

Maar er dient weldegelijk een ethische discussie te komen
t.b.v. de ethische controle van zogenaamde wettelijkheid van beslissingsondersteunde systemen,
algoritmen en AI.
Wat? Nee natuurlijk niet, jij "privacy vechter"[sic] die je bent. Zo maar een beetje willen discussieren en niet gewoon de authoriteit van de overheid willen accepteren. Die doen ook maar gewoon hun werk weet je. De [sic!] idee!

Het idee in deze betekenis.

https://taaladvies.net/taal/advies/vraag/404/idee_de_het/
01-05-2019, 00:07 door Anoniem
Overheid, die haar autoriteit gaat ontlenen aan AI.

Dat is toch wel weer wat nieuws,
maar ja overal worden we door algoritmen in kaart gebracht.

Menselijke autoriteit erkennen is al moeilijk binnen de afweging tussen gegeven en aanvaarde autoriteit.
Hoe gaan we dit met z'n allen invullen ten aanzien van de te aanvaarden autoriteit van AI?

Bij autoriteit van AI moet het gaan om de onfeilbaarheid ervan
en de superioriteit t.o.v. de menselijke afwegingen,
en bij de meeste code, ook die gemaaktis via AI, durf ik die niet onvoorwaardelijk te geven.
Nu is het Internet al niet meer veilig te krijgen, al zouden we dat willen.

Asimov verzon er zijn literaire robotwet op, om de robot gehoorzaam te houden.

Uiteindelijk zal dat wel erkend moetenworden,
maar dan zitten we i.m.o. toch wel al een eind in een soort van Beest-computer systeem,
waarin we een vrije keuze mogelijkheid niet meer bezitten kennelijk.

Ik wil wel een computer bedienen onder mijn voorwaarden,
niet door een computer geregeerd worden.

J.O.
01-05-2019, 13:41 door karma4
Door Anoniem: [
Machines maken nooit fouten (?)
Maar hun programmeurs zijn mensen, en maken dus wel fouten. Dus hun creaties (zo'n systeem) dus ook.
QED.
Neem het eens op als wandelaar tegen de hoge snelheidstrein naar het zuiden. Wie zal het winnen denk je.
Natuurlijk kan er met een trein wel een wat mis gaan. Mensen maken fouten, toch is het totale effect veel beter dan middeleeuwse toestanden.
Al die huishoudelijke apparatuur zoals een wasmachine gaat wel eens stuk. Toch zijn we beter af dan 100 jaar geleden toens alles nog met de hand moest.
Als jij middeleeuws wilt leven is dat jouw keuze, anderen gaan liever voor de vooruitgang.
01-05-2019, 16:08 door Anoniem
@ karma4,

Ik bekijk het vanuit de algemene risico's, die kleven aan AI,
te weten - verkeerde voorspellingen en privacy risico's.

Niet dat ik tegen het inzetten ben, ik ben alleen voor voldoende beveiligd inzetten.

Er is nu nog te veel verkeerd, met of zonder AI,
kijk eens hier: https://basisbeveiliging.nl/

Nogal wat middeleeuwse IT toestanden in sommige provincies en gemeenten her en der,
en bij de overheid zal het over het algemeen genomen niet een heel veel beter beeld opleveren.

Maar je moet natuurlijk wel in je eigen big-data-werk blijven geloven.
Hoe zeggen ambtenaren dat in de regel?

"Het heeft onze aandacht en we werken eraan....".

luntrus
02-05-2019, 21:04 door karma4
Door Anoniem: @ karma4,
Ik bekijk het vanuit de algemene risico's, die kleven aan AI,
.
Er is nu nog te veel verkeerd, met of zonder AI,kijk eens hier: https://basisbeveiliging.nl/
...
Maar je moet natuurlijk wel in je eigen big-data-werk blijven geloven.
..
"Het heeft onze aandacht en we werken eraan....".
luntrus
Ik weet het en ben het met je eens. Goede basisbeveiliging informatieveiligheid zou een natuur moeten zijn maar het is een zorgenkindje. Overigens lokale gemeentes vallen ook onder overheid. Bedrijfsleven zoals garages verenigingen winkels, het zal niet veel beter zijn.

Ooit opgegroeid in een tijd dat het werk van E.Dijkstra van belang gevonden werd. Je moet het goed dan vanaf het begin, zeg maar security by design. Met AI kun je de zelfde stappen inzetten van veilige gecontroleerde verwerkingen en proces verbeteringen als men toen gestructureerd programmeren en testen met bewijs van een correcte oplossing deed.

Het is geworden als het maar snel de markt op kan en veel geld opbrengt..
Bouwen en testen mag bij voorkeur …. niets kosten. Intussen leven we met actiegroepen die zich bezighouden met merkstrijden OS-strijden, dat gaat ten koste van beveiliging.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.