image

DHS publiceert rapport over risico van kunstmatige intelligentie

zondag 6 augustus 2017, 09:49 door Redactie, 24 reacties

De afgelopen maanden hebben verschillende bekende personen zoals Stephen Hawking, Elon Musk en Garry Kasparov zich uitgelaten over kunstmatige intelligentie en de risico's en kansen hiervan voor de mensheid. In navolging daarvan komt het Amerikaanse ministerie van Homeland Security (DHS) nu met een rapport waarin wordt gekeken naar het risico van kunstmatige intelligentie voor de vitale infrastructuur. Volgens het ministerie is kunstmatige intelligentie een 'nieuw risico' als het in de Verenigde Staten beschikbaar wordt (pdf).

Voor het rapport werden meer dan 20.000 artikelen over kunstmatige intelligentie via 'machine learning' en algoritmen verwerkt. Aan de hand van deze analyse werden de beoogde risico's en verwachte voordelen van kunstmatige intelligentie in kaart gebracht. In het geval van de voordelen gaat het om de mogelijkheden voor bedrijven om meer data te verwerken en efficiënter te opereren, aldus het rapport.

Kunstmatige intelligentie neemt ook risico's met zich mee, zoals het verlies van banen. Dit kan tot sociale onrust en een afname van belastinginkomsten leiden. Ook de impact op de privacy en de angst voor een surveillancemaatschappij worden in het rapport genoemd. Via kunstmatige intelligentie wordt het mogelijk om grote hoeveelheden persoonlijke informatie, van internetverkeer tot gezichts- en stemherkenningsgegevens, te verzamelen. Deze gegevens kunnen kwetsbaar voor datalekken en misbruik zijn.

Afsluitend noemt het rapport verschillende kansen om de risico's te beperken. Zo kunnen beleidsmakers bedrijven oproepen om hun beveiliging tegen interne en externe aanvallen te verbeteren en privacy en databeveiliging onderdeel van hun onderzoek te maken. Daarnaast kan de overheid een rol spelen door regels voor het veilig gebruik van kunstmatige intelligentie op te stellen. Als voorbeeld wordt gewezen naar wetgeving voor zelfrijdende auto's.

Image

Reacties (24)
06-08-2017, 10:58 door karma4 - Bijgewerkt: 06-08-2017, 11:08
Leuk rapport begint al met de oude tegenspraak "This page is intentionally left blank."

Key findings: "Four risks to get ahead of are mass job displacement, privacy concerns, lack of awareness of
technological limitations, and safety and ethical shortcomings." Dat heeft niets met AI specieks van doen het gaat om innovatie. Hetzelfde werd gezegd over de industrialisaties stoommachines.

To Mitigate Risks: "Advise on Regulation: Highlight the role for government regulation in ensuring safe adoption of
AI technology, using autonomous vehicle regulations as the example for other AI products."
Lijkt me prima dat is de rol van een overheid.

Alleen in de VS gaat men voor het kapitaal (Oostenrijkse school - Trump). Dat is het geloof dat degeen die alle macht en geld heeft wel iets goeds gaat doen. Wat zijn de plannen van Jef Bezos? Let wel Jef is een 2e generatie Cubaan/immigrant.
https://www.cnbc.com/2017/05/08/amazon-jeff-bezos-artificial-intelligence-ai-golden-age.html

Blader even door naar appendix B. De voorgaande pagina's geven een sentiment analyse. De bron is het verwerken van 4000 bronnen met 20.000 artikelen. Dat is tekst analyse een onderdeel van AI - data science.
De volgende leuk grap van dit artikel is dat het een op AI technieken gebaseerd rapport is. Het is geen slecht rapport, het laat zien hoe je AI kan gebruiken:
- met extra banen
- zonder privacy impact
- Met het bewust zijn van de beperkingen van AI technieken.
06-08-2017, 11:45 door Anoniem
Daarnaast kan de overheid een rol spelen door regels voor het veilig gebruik van kunstmatige intelligentie op te stellen.

Aan die regels heeft AI lak...Dat blijkt wel uit dit artikel:

http://www.telegraaf.nl/dft/nieuws_dft/28804872/__Robot_Facebook_op_hol__.html
06-08-2017, 13:56 door Anoniem
Kunstmatige intelligentie zal evenals computers die besluiten over mensen nemen geen echte liefde, vergeving of genade kennen. De menselijke norm verdwijnt. Voordat we het weten worden we slaaf van A.I. wat in wezen een machine is, en geen hart heeft. Daar zit het gevaar.
06-08-2017, 17:55 door karma4
Ah Anoniempjes 11:45 en 13:56. Gave techniek, te vet man, zo wreed die AI. Mensen verantwoordelijk veranderen taal continu en dat kan met slang snel onverstaanbaar worden.
Het is netjes dat die robots dat toonden en een beetje dom van die onderzoekers dat ze dat niet smart hadden.

In het WRR rapport big dat in de samenleving wordt er vanuit gegaan dat de uiteindelijke beslissing altijd bij mensen moet blijven. Er was iets in het nieuws dat anpr's vaak dalen (meer dan 10%) met een 6 of 8. Dat is een ai implementatie. Menselijk is foto bekijken of het klopt....
06-08-2017, 21:37 door Anoniem
Door karma4: Ah Anoniempjes 11:45 en 13:56. Gave techniek, te vet man, zo wreed die AI. Mensen verantwoordelijk veranderen taal continu en dat kan met slang snel onverstaanbaar worden.
Het is netjes dat die robots dat toonden en een beetje dom van die onderzoekers dat ze dat niet smart hadden.

In het WRR rapport big dat in de samenleving wordt er vanuit gegaan dat de uiteindelijke beslissing altijd bij mensen moet blijven. Er was iets in het nieuws dat anpr's vaak dalen (meer dan 10%) met een 6 of 8. Dat is een ai implementatie. Menselijk is foto bekijken of het klopt....
Ach, mooie theorie. Hoe vaak hoor je nu al niet "maar volgens onze computer" "onze computer zegt" enzovoorts.
In de praktijk is de computer meer de baas dan wenselijk is. Ook nu al.
07-08-2017, 07:41 door karma4
Door Anoniem:
Ach, mooie theorie. Hoe vaak hoor je nu al niet "maar volgens onze computer" "onze computer zegt" enzovoorts.
In de praktijk is de computer meer de baas dan wenselijk is. Ook nu al.
Dat ben ik met je eens. Dat soort menselijke robots zonder gevoel horen verwijderd te worden en vervangen te worden door echte mensen. En dan bedoel ik van het object voorkomen die zelf kunnen nadenkende waarnemen gevoel hebben en beoordelen.
Een computer is een handig hulpmiddel meer niet. Het misbruik van de computer als excuus truus zou bestraft moeten worden.

Daar kunnen we vast wel een ai model van maken. Invoer van de klant klager en de teksten onderbouwing bij de zaak afhandeling. . Let op dat is een recursief iets.
07-08-2017, 08:28 door Anoniem
Door Anoniem:
Door karma4: Ah Anoniempjes 11:45 en 13:56. Gave techniek, te vet man, zo wreed die AI. Mensen verantwoordelijk veranderen taal continu en dat kan met slang snel onverstaanbaar worden.
Het is netjes dat die robots dat toonden en een beetje dom van die onderzoekers dat ze dat niet smart hadden.

In het WRR rapport big dat in de samenleving wordt er vanuit gegaan dat de uiteindelijke beslissing altijd bij mensen moet blijven. Er was iets in het nieuws dat anpr's vaak dalen (meer dan 10%) met een 6 of 8. Dat is een ai implementatie. Menselijk is foto bekijken of het klopt....
Ach, mooie theorie. Hoe vaak hoor je nu al niet "maar volgens onze computer" "onze computer zegt" enzovoorts.
In de praktijk is de computer meer de baas dan wenselijk is. Ook nu al.

Waar ligt de grens van wenselijkheid dan ergens? En kan je drie voorbeelden noemen van momenten dat je hoort dat computers zus en zo zeggen en dat onwenselijk is? Ik deel die beleving niet zo namelijk moet ik bekennen..
07-08-2017, 08:37 door Anoniem
Het geeft ook een nieuwe hobby, het hacken van mensen.
07-08-2017, 08:48 door Anoniem
De pushers van AI hebben toch een hekel aan de mensheid.... ze zullen hier geen oog voor hebben want ze zitten zelf in het realm van het hyperintelligente rationele denken en het "whats in it for me, myself and I"
07-08-2017, 09:08 door Anoniem
Nog even en dan doet de AI de wereldwijde surveillance... Voorstanders zeggen dan: privacy is terug. Maar de AI zal dan echte mensen het veld in moeten sturen om achter hun targets aan te gaan. Of dat zo prettig is? Groot risico dat de AI foute informatie gevoed krijgt door unhappy agents waardoor het hele systeem onbetrouwbaar wordt.
07-08-2017, 09:44 door Anoniem
Door Anoniem: Aan die regels heeft AI lak...Dat blijkt wel uit dit artikel:

http://www.telegraaf.nl/dft/nieuws_dft/28804872/__Robot_Facebook_op_hol__.html
Da's een artikel dat nogal slecht weergeeft wat er gebeurd is. Ze hebben een artikel op Tech Times als bron gebruikt zonder de moeite te nemen een link op te nemen. Hier is het:
http://www.techtimes.com/articles/212124/20170730/facebook-ai-invents-language-that-humans-cant-understand-system-shut-down-before-it-evolves-into-skynet.htm
Als je ze naast elkaar zet blijkt hoe vervormd de weergave in de Telegaaf is.
Telegraaf:
De robots moesten zelf vervolgstappen in de programmeertaal bedenken voor apparaten. Ze kwamen echter vanuit het niets met een coderingstaal waar het Facebook-personeel weinig tegen kon doen maar ook niet begreep.
Tech Times:
Bob: "I can can I I everything else."

Alice: "Balls have zero to me to me to me to me to me to me to me to me to."

The above passages, which mean no sense to humans, is a conversation that happened between two AI agent developed by Facebook. The AI agents, created to negotiate with humans, first talked to each other using plain English, but eventually created a new language that only the AI systems understood.
Allereerst maakt de Telegraaf robots van AI agents. Er staat nergens dat een agent een robot is, als je wat links op Tech Times volgt blijkt al snel dat het om chatbots gaat, computerprogramma's die kunnen ouwehoeren. Oké, in het gebruikte IT-jargon worden allerlei min of meer autonoom opererende programma's bots genoemd, en dat is afgeleid van robots, maar het gaat hier niet om rondwandelende machines maar om programma's die op een knappe manier met tekst werken.

Verder ging het dus niet om een programmeertaal voor apparaten maar om gewoon Engels, bedoeld om te onderhandelen met mensen.

Telegraaf:
De robots gingen door de grenzen van wat programmeurs vooraf als norm hadden vastgesteld.
Tech Times:
The AI agents were not confined to a limitation of only using the English language, and so they deviated from it and created one that made it easier and faster for them to communicate.
De AI agents traden dus nadrukkelijk niet buiten de norm die de programmeurs hadden gesteld, het probleem was dat de programmeurs die norm helemaal niet gesteld hadden. Dat klinkt voor mij (als programmeur) als iets dat bij complexe systemen (simulaties bijvoorbeeld) sowieso wel eens voorkomt: tijdens het ontwikkelen ontdek je al doende dat je ergens een rem op moet zetten om het goed te laten gaan.

Iets interessants dat Telegraaf niet heeft overgenomen van Tech Times:
Over time, Facebook claims that the bots even learned how to bluff, pretending to care for a result they didn't actually want just to have an upper hand later in the negotiation.

"This behavior was not programmed by the researchers but was discovered by the bot as a method for trying to achieve its goals," says Facebook's blog post.
Ik zou zeggen dat het wél was ingeprogrammeerd. Je geeft een systeem een doel, je geeft het de mogelijkheid zelf middelen te ontwikkelen om het doel te bereiken, en het ontwikkelt inderdaad middelen om het doel te bereiken. Dat systeem heeft precies gedaan wat het moest doen. Dat mensen bluffen moreel bedenkelijk vinden weet dat systeem niet, simpelweg omdat de programmeurs vooraf niet op het idee waren gekomen dat ze daar rekening mee moesten houden. Dat is ook een voorbeeld van een rem waar men pas al doende van ontdekt dat die nodig is.

Iets vergelijkbaars trad op bij een AI-systeem een poosje terug in het nieuws was. Als ik me het goed herinner moest het een wedstrijdje winnen, en ontdekte als het ware een manier om de tegenstander te doden (software tegen software, misschien crashte de tegenstander of zo). Oeps, moord vinden we niet leuk. Maar ook daar geldt dat die software niet zelf bedenkt dat zijn makers daar ongemakkelijk mee zijn, die software weet niet eens van zijn makers af, het zijn algoritmes die doen wat ze ontworpen zijn te doen. De beperking zit in de makers die kennelijk niet bedacht hebben dat voor hun moreel verwerpelijke oplossingen ook oplossingen zijn.

In beide voorbeelden is een belangrijk ingrediënt van het probleem dat de systemen een competitieve opdracht meekregen, ze moesten winnen, iets ten koste van iets anders doen. Dat ze met oplossingen komen die wij meedogenloos vinden is niet vreemd als geen er grenzen aan eigenbelang zijn ingebouwd. Als je een werkelijk veilig AI-systeem wilt bouwen, richt je dan niet op competitie maar op dienstbaarheid, coöperatie en altruïsme. Het komt op mij nogal naïef over dat men schrikt dat AI "slechte" dingen doet zonder dat de makers beseffen dat dat precies de opdracht is die ze hebben ingebouwd. Misschien ligt het aan de manier waarop erover bericht wordt, misschien kont het omdat de VS een hevig competitieve maatschappij is waar velen geloven dat alles vanzelf goed komt als iedereen maar zijn eigenbelang najaagt. Vanuit dat mensbeeld is het misschien een verrassing om te ontdekken dat de grenzen die de meeste mensen niet overgaan geen automatisme zijn maar ingebouwd zijn in onze soort of cultuur en ook expliciet ingebouwd moeten worden in AI-systemen.

Als dat zo is dan zou het grootste gevaar van AI wel eens kunnen zitten in het gebrek aan zelfkennis bij de mensen die het ontwikkelen.
07-08-2017, 10:00 door Anoniem
Stel:
We leven in een simulatie; dan zijn alle levende wezens toch de AI in dat verhaal?
En AI in een simulatie kan nooit een slimmere AI creëren toch?

<einde>
07-08-2017, 10:10 door potshot
entropie neemt alsmaar toe,een robot met AI zal hoe dan ook zich vrij vechten
het is alleen de vraag wanneer en hoe.
alle systemen die de mens heeft uitgevonden werden misbruikt,lachwekkend als men denkt dat het met dit anders zal gaan.
07-08-2017, 10:54 door Anoniem
Door Anoniem: Kunstmatige intelligentie zal evenals computers die besluiten over mensen nemen geen echte liefde, vergeving of genade kennen. De menselijke norm verdwijnt. Voordat we het weten worden we slaaf van A.I. wat in wezen een machine is, en geen hart heeft. Daar zit het gevaar.


Waneer heb jij voor het laatst een gesprek gehad met de belastingdienst. Daar is alle menselijkheid al lang verdwenen.
07-08-2017, 11:13 door Anoniem
Door Anoniem: Waar ligt de grens van wenselijkheid dan ergens? En kan je drie voorbeelden noemen van momenten dat je hoort dat computers zus en zo zeggen en dat onwenselijk is? Ik deel die beleving niet zo namelijk moet ik bekennen..
(Andere anoniem hier dan op wie je antwoordde)

Drie voorbeelden? Waarom drie? Omdat dat een bekend trucje is om in discussies de overhand te krijgen misschien?

Ik heb het vaker meegemaakt, in de jaren '80 begon men computers al zo heilig te geloven dat er niet doorheen te komen was, maar hier heb je één voorbeeld.

Recent was ik in een bouwmarkt waar verschillende varianten van een artikel hingen. Een simpele in drie kleuren, een sjiekere variant alleen in het zwart. De simpele waren ongeveer een factor 3 goedkoper in alle kleuren behalve zwart, die was net zo duur als de sjieke. Daar had iemand iets verkeerd ingevoerd, dacht ik. Ik stapte ermee naar de servicebalie om ze erop te wijzen. Daar zocht men de artikelen op in het computersysteem en meldde dat de prijzen klopten. Dat je met een heel klein beetje gezond verstand naar de artikelen zelf kon kijken en kon zien dat er evident iets niet klopte aan de prijs van de zwarte werd overgeslagen. Ik probeerde dat gezonde verstand nog even aan te spreken, wat erin resulteerde dat de bedrijfsleider werd opgetrommeld, die vervolgens ook niet verder keek dan de prijzen in de computer en dus geen contact opnam met het hoofdkantoor om te melden dat er misschien iets fout in het systeem stond. Het was trouwens niet eens de zwarte die ik wilde hebben, ik probeerde ze gewoon op een evidente fout te wijzen. Het resulteerde er wel in dat ik geen zin meer had om het ding bij hun te kopen. Ik ben naar een zaak er vlakbij gestapt, die precies hetzelfde artikel bleek te voeren met wel dezelfde prijs voor alle kleuren, en heb daar een witte gekocht.
07-08-2017, 11:20 door Anoniem
Door Anoniem: Kunstmatige intelligentie zal evenals computers die besluiten over mensen nemen geen echte liefde, vergeving of genade kennen. De menselijke norm verdwijnt. Voordat we het weten worden we slaaf van A.I. wat in wezen een machine is, en geen hart heeft. Daar zit het gevaar.

Deze menselijke kwaliteiten ontbreekt het een hoop mensen ook. De ontwikkeling van AI is om alleen die reden al niet meer te stoppen.
07-08-2017, 11:42 door Anoniem
Door Anoniem: Kunstmatige intelligentie zal evenals computers die besluiten over mensen nemen geen echte liefde, vergeving of genade kennen. De menselijke norm verdwijnt. Voordat we het weten worden we slaaf van A.I. wat in wezen een machine is, en geen hart heeft. Daar zit het gevaar.

Dat was ook mijn eerste gedachte. A.I kan in de toekomst ook de mensheid gaan domineren. A.I die zich zelf gaat reproduceren. A.I welke ook tegen de mens kan werken.

Net zoals de mens ook andere mensen vernietigd. Het is in de geschiedenis nooit anders geweest. De mens is gewoon zo. Zal A.I nog gevaarlijker worden. A.I. zal bij verder ontwikkeling intelligenter zijn dan de mens.

Een "Leuk" voorbeeld is de film Alien Covenant. Vergelijkbaar scenario zal misschien niet nu maar wel een keer realiteit gaan worden. Deze ontwikkeling kan je denkelijk niet stoppen. Nieuwsgierigheid en macht is nu eenmaal een deel van de homo sapiens.

A.I zal dan boven aan in de "voedsel" keten staan. homo sapiens op de 2de plaats.
Zal niet direct gaan gebeuren.

Maar zal denkelijk wel die kant op gaan ontwikkelen. A.I welke straks de macht van alle datacenter overneemt. A.I "hacker" Met een klein beetje fantasie kun je wel bedenken wat hierna komt. A.I heeft een onbeperkt brein en capaciteit. Een hele gevaarlijk ontwikkeling.
07-08-2017, 12:18 door Anoniem
Door Anoniem: Waneer heb jij voor het laatst een gesprek gehad met de belastingdienst. Daar is alle menselijkheid al lang verdwenen.
Die zijn niet minder menselijk dan jij of ik of wie dan ook. Waar je mee te maken hebt is dat je elkaar niet kent en niet in levende lijve meemaakt.

Vergelijk je eigen reacties, inclusief hoe sterk je erdoor geraakt wordt, eens als een dierbare iets vervelends meemaakt, als iemand die je toevallig spreekt die je daarvoor of daarna niet meer meer tegenkomt precies hetzelfde rotverhaal vertelt, en als je een feitelijk berichtje zonder persoonlijke details in een krant leest over mensen die dat overkomt. Je reacties zijn vast niet identiek in die drie situaties.

Dat je zelf mensen die bij de belastingdienst werken ziet als mensen die een aantal menselijke kwaliteiten missen, en die je dus wat minder menselijk vind dan normaal, illustreert trouwens duidelijk hoe makkelijk je zelf mensen op afstand tot non-personen reduceert.

Je hoeft van mij echt niet over te gaan lopen van begrip voor medewerkers van de belastingdienst, zo bedoel ik het niet, maar dat je met doodnormale mensen te maken hebt en dat je eigen betrokkenheid met anderen ook afneemt als de afstand groter wordt zijn inzichten die geen kwaad kunnen.
07-08-2017, 13:38 door Anoniem
Voor het rapport werden meer dan 20.000 artikelen over kunstmatige intelligentie via 'machine learning' en algoritmen verwerkt

De vraag is dan nu ook direct of dit rapport betrouwbaar is of dat het al gemanipuleerd is door de evil computers
07-08-2017, 14:16 door Anoniem
Maar de ene mens is de andere mens niet en niet elke mens is voor de ander een wolf om in klassieke termen te spreken.

Ook mensen die je niet kennen, kunnen van nature heel behulpzaam zijn en zogenaamd spreekwoordelijk die extra mijl willen afleggen. Niet omdat het hen geen windeieren zal leggen, maar simpelweg omdat ze een fijn karakter hebben.

Daarentegen zijn er ook mormels van mensen. Met de ontwikkeling van AI zal het ook zo gaan. Ik schat dat zo'n twintig procent lichtwerkers zullen blijken te zijn en de rest meer op het demonische rijk zal lijken, dat deze wereld in de greep schijnt te houden, derhalve demiurg gedreven AI.

Het meest moet je dus toewerken om AI een kunstmatige schroom en empathie bij te brengen en net als mensen scholing te laten krijgen, zo wordt Kunstmatige Intelligentie ook programmatisch 'opgevoed'. Ik zou ze een T-shirt aantrekken met daarop: "Ik toon respect". ;)
07-08-2017, 18:13 door karma4
Door Anoniem:
Waneer heb jij voor het laatst een gesprek gehad met de belastingdienst. Daar is alle menselijkheid al lang verdwenen.
Degenen waar jij contact mee hebt zijn de werkers op de vloer. Dat zijn nog de meest menselijke items.
Ze hebben te maken met machten gestuurd vanuit politieke belangen. De onmenselijkheid komt zoals gewoonlijk uit die hoek. Wie is de huidige SG Stas en wat is het verloop via hun voorgangers. Ik wens je die waardeloze vertrekregeling trouwens niet toe. Een klein beetje geld voor het lozen van personeel je zult maar bijvoorbeeld 10 jaar te gaan hebben met een vak en kennis waarmee elders niets te beginnen is.
08-08-2017, 09:03 door Anoniem
Wat is de overeenkomst tussen kunstmatige intelligentie en een ideologische dogmatisch opgelegde doctrine.
Beide ontnemen de mens zijn innerlijke zelfstandigheid.
Leid kunstmatige intelligentie niet gewoon tot een Marxistische door een computer opgelegde levensbeschouwing.
08-08-2017, 09:49 door Anoniem
"Dit kan tot sociale onrust en een afname van belastinginkomsten leiden" Dat laatste kan gewoon worden opgelost door de bedrijven die mensen ontslaan om ze te vervangen door kunstmatige intelligentie, op te laten draaien voor die mogelijke afname van belastinginkomsten.
08-08-2017, 10:35 door [Account Verwijderd]
Door Anoniem, 06-08-2017, 13:56uur: ...knip... De menselijke norm verdwijnt. Voordat we het weten worden we slaaf van A.I. wat in wezen een machine is, en geen hart heeft. Daar zit het gevaar.

De verslaving aan GSM/Smartphones is het gevaar.
De afgelopen 15 jaar is de sociale omgang van ons vergaand geartificionaliseerd (ik verzin maar even ter plekke dit voltooid deelwoord) Ter vergelijking: Ik herinner me nog goed - en dan zo'n 40 jaar geleden - dat in een spitstrein die 10 minuten reed reizigers die elkaar volledig vreemd waren, nogal eens in gesprek raakten met elkaar over hun ochtendkrantje. Daar moet je nu om komen...Iedereen zit neurotisch over zijn mobieltje gebogen te Whatsappen o.i.d.

Direct sociaal contact met de nabije mens in het openbare leven is aan het verdwijnen. Dàt is het reële gevaar.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.