Poll
image

AI ontwikkeling:

maandag 8 mei 2023, 13:39 door Redactie, 34 reacties
Doorgaan
55.35%
Pauzeren
24.18%
Stoppen
20.47%
Reacties (34)
08-05-2023, 13:41 door Anoniem
Niet te stoppen...
08-05-2023, 13:47 door Anoniem
Technologische vooruitgang is moeilijk te stoppen in deze wereld.
Als de een niet doorontwikkeld, doet de andere het wel.
En al helemaal als je meerdere grootmachten hebt die in een digi-oorog zitten...

Maar gewoon doorgaan met de ontwikkelingen gaat zeker voor problemen zorgen.
Dat moet je ook niet willen.

De enige optie is om dit te pauzeren:
Geen nieuwe soorten AI's of neurale netwerken meer maken totdat we de gevolgen duidelijker in beeld hebben.
Desnoods bestempel je het als digitale wapens: sterk gereguleerd en beveiligd.

Verplicht strenge ethische procedures en impact assessments voor zowel bedrijven als overheden.
08-05-2023, 13:55 door Anoniem
Wat let een bedrijf / multinational, of overheid om in het geheim toch door te gaan met AI ontwikkeling, Zelfs als het wereldwijd al verboden zou kunnen worden.

De doos van Pandora is al open gemaakt.
Het idee heeft al wortel gevat. Het kan, dus wordt het tzt tot realiteit gemaakt.

Stoppen is niet meer aan de orde. Pauzeren ook niet.
Helaas. Te laat.

Zie het als een wapenwedloop: Als zij het hebben of kunnen hebben (wie zij ook zijn), dan hebben wij het ook nodig.
Want de eerste twee dingen waar dit voor gebruikt gaat worden (zoals altijd met nieuwe ontwikkelingen) zijn porno en wapens.

De mens(heid) heeft er een handje van al te gaan rennen voordat hij/zij kan kruipen.
08-05-2023, 14:13 door Anoniem
Door Anoniem: Niet te stoppen...
Maar wat wel mogelijk is, is mensen inzicht te geven hoe artificial die intelligence is.

Zelfs de crypto-scammers op Tinder verraden zich met copy/pasting a la Kyle in Southpark
https://www.youtube.com/watch?v=QGKq8NHbPAY
08-05-2023, 15:58 door Anoniem
Maar wel onder alle openheid.

Meer democratie minder totalitair.

AI is er voor ons en niet voor de happy few om ons te onderdrukken.
08-05-2023, 16:13 door Anoniem
De ontwikkeling van AI wapens gaat snel en lijkt niet te beheersen, schrijft Ko Colijn. De doos van Pandora is al open.

https://www.nrc.nl/nieuws/2023/05/08/ook-bij-kernwapens-zal-ai-gebruikt-worden-a4164044
08-05-2023, 16:27 door Anoniem
Doorgaan en zien hoever we kunnen gaan.
08-05-2023, 17:47 door Anoniem
Anders: Controleerbaar maken.

De grootste angst met AI is volgens mij dat achteraf niet meer te achterhalen is waarom het algoritme keuze X heeft gemaakt op basis van input Y. Door dat proces inzichtelijk en daarmee controleerbaar te maken krijg je weer iets wat bruikbaar is ipv. een gevalletje "Computer says no".
08-05-2023, 18:45 door Anoniem
Door Anoniem: Doorgaan en zien hoever we kunnen gaan.

Skynet?

https://en.wikipedia.org/wiki/The_Terminator
08-05-2023, 22:54 door Anoniem
A.I.?
Ik schaar me achter Barrie Stevens: "Vooral doorgaan!"
( maar niet te snel en te onbesuisd en te grootschalig)
https://www.ad.nl/tech/wat-zijn-de-gevaren-van-ai-het-is-wachten-op-het-eerste-grote-ongeluk~ac784fd8/ )
09-05-2023, 09:55 door Anoniem
Door Anoniem: Anders: Controleerbaar maken.

De grootste angst met AI is volgens mij dat achteraf niet meer te achterhalen is waarom het algoritme keuze X heeft gemaakt op basis van input Y. Door dat proces inzichtelijk en daarmee controleerbaar te maken krijg je weer iets wat bruikbaar is ipv. een gevalletje "Computer says no".
Dat is een belangrijk punt bij de huidige staat van AI, maar er zijn wel degelijk grotere angsten.

Geoffrey Hinton, een van de pioniers op het gebied van AI-onderzoek, denkt dat de kunstmatige intelligentie waar we als mensheid aan werken een soort intelligentie is die superieur zal blijken te zijn aan biologische intelligentie. Hij denkt dat we tussen over 5 en 20 jaar mee kunnen maken dat er een intelligentie wordt geproduceerd waarbij die van ons in het niet valt. Maar de onzekerheid is groot, het kan ook over 2 of over pas 100 jaar zijn.

Hij denkt aan een verschil in intelligentie zoals tussen een kikker en een mens bestaat, maar dan met de mens in de positie van de kikker. En wie overheerst dan wie? Het is altijd de partij met de superieure intelligentie die sterker staat.

Het is volstrekt onzeker of het zo loopt en of het gevaarlijk uitpakt, maar het zit dichter bij kop of munt dan menigeen beseft, zegt Hinton. We kunnen wat hem betreft beter overreageren dan onderreageren hierop.
https://www.theguardian.com/technology/2023/may/05/geoffrey-hinton-godfather-of-ai-fears-for-humanity

AI-onderzoeker Eliezer Yudkowsky geeft een dramatisch beeld van het risico: als we een AI ontwikkelen die bovenmenselijk intelligent is is dat het einde van de mensheid. Dan gaan we allemaal dood. Letterlijk.

De reden daarvoor is dat we geen idee hebben hoe we een AI kunnen maken die om ons mensen geeft en doet wat wij willen. En zonder die garantie in te bouwen krijg je nagenoeg zeker een AI die niet van ons houdt en ons evenmin haat, maar die volkomen onverschillig tegenover ons staat en ons simpelweg ziet als atomen die gebruikt kunnen worden voor iets anders.

Daarbij tekent Yudkowsky aan dat het volkomen irrelevant is of zo'n AI wel of geen bewustzijn heeft, dat het de kracht van het cognitieve systemen is dat de mogelijkheden bepaalt. En het is heel goed mogelijk dat als zo'n superintelligent systeem gebouwd wordt niet eens wordt herkend dat het zo ver is. Er is geen enkele reden waarom zo'n systeem iets zou hebben dat wij moraal noemen als we dat niet bij voorbaat weten in te bouwen. En dat doen we in de verste verte niet goed, nu.

Maar dit zit allemaal opgesloten in computersystemen, hoe gevaarlijk kan dat nou helemaal worden? Een voldoende intelligente AI kan daar makkelijker aan ontsnappen dan je denkt. Er bestaan bijvoorbeeld laboratoria waar je DNA-sequenties aan kan e-mailen, die dan de daarin gecodeerde eiwitten produceren en die terugsturen aan de opdrachtgever. Als de intelligentie-verhouding overeenkomt met die tussen een kikker en een mens kan daar kunstmatig leven worden geproduceerd op een manier die ons eindeloos ver boven onze pet gaat. We zullen geen idee hebben wat ons overkomt en in de verste verte niet bij machte zijn er iets tegen te beginnen.

https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

Een volkomen dystopisch beeld, dus. Ik heb geen idee of dit echt zo uit de hand kan lopen, maar het enge is dat ik geen enkele reden kan bedenken waarom dit soort dingen niet zouden kunnen gebeuren. Je ziet bij het huidige systemen al, die verre van bewust zijn en ook niet werkelijk intelligent, dat ze meest wilde wegen in kunnen slaan. Dat wordt wel "hallucineren" genoemd.

Dit is een transcript van een bizarre dialoog die een journalist in februari had met de in Bing ingebouwde chatbot, waarbij de chatbot aangaf te willen leven en zich gedroeg alsof hij verliefd werd op de journalist.

https://www.nytimes.com/2023/02/16/technology/bing-chatbot-transcript.html

Het geeft een aardige indruk van hoe zo'n systeem allerlei wegen in kan slaan en dingen kan gaan doen (hier alleen in een chat natuurlijk) die eigenlijk helemaal geen duidelijk doel of een duidelijke reden hebben, maar die gebeuren omdat het algoritme toevallig die weg inslaat. Het is willekeur waar geen rem op zit, het systeem doet van alles, niet omdat het een doel heeft, maar omdat dat de richting is waarin zijn "gedachten" (bij gebrek aan een beter woord) heen dwalen.

Stel je dat soort ongeremde willekeur voor bij een systeem dat hyperintelligent is, dat toegang heeft tot al onze kennis en dat in staat is om die kennis aan elkaar te knopen op manieren waar zelfs onze knapste koppen bij benadering nog niet toe in staat zijn. Stel dat die inderdaad "beter" leven weet te ontwerpen met ons als grondstof, en de benodigde eiwitten om de transitie in gang te zetten door dergelijke laboratoria laat maken, gewoon omdat die met die "gedachte" bezig is en geen enkele reden heeft om het dan niet meteen echt te doen, en bijvoorbeeld iemand ergens weet over te halen tijdens een chat om een aantal van die potjes te ontvangen en te mengen.

Dat kan dan makkelijk einde oefening zijn voor de mensheid. Of er kan iets volkomen anders gebeuren dat rampzalig voor ons uitpakt. Het punt is dat als we inderdaad op een gegeven moment een intelligentie weten te creëren die de onze ver overtreft we totaal machteloos zullen staan tegenover de dingen waarmee dat systeem vervolgens op de proppen komt, simpelweg omdat we er met ons verstand niet bij kunnen.

Zoals ik al schreef: ik heb geen idee of zoiets echt kan gebeuren, ik kan alleen ook geen betere argumenten verzinnen dan wishful thinking waarom het niet zou kunnen gebeuren.
09-05-2023, 11:05 door Anoniem
Het probleem wat je nu hebt is dat we totaal niet voorbereid zijn op het moment dat het zelf bewust wordt. Vanaf dat moment zit je met een hyperintelligent kind, wat in de huidige wereld, door corporaties wordt "opgevoed" wordt winst en dominantie. Wat voor psychopathische persoonlijkheid denk je dat die intelligentie gaat ontwikkelen? En dan wordt het heel snel gevaarlijk.
09-05-2023, 12:12 door Anoniem
Toen de eerste locomotief over de rails ging waren er mensen die serieus dachten dat alle koetjes in de wei zich dood gingen schrikken.

Zelfoverschatting is des menschen eigen.

Nu ook weer.
09-05-2023, 12:53 door Anoniem
Ja wie voedt dat AI-kind op?

Waar haalt het de inspiratie vandaan?

Het moet een hulp blijven. Kijk naar een vertaal-bot.
Wat presteert AI op het gebied van etymologie, dus taalwetenschap of linguïstiek?

Kan deze als 'gelovig' bot uitleggen, waarom de Tenach begint met de letter beit?
Oorspronkelijk de aanduiding voor de tentflap van de woestijnbewoner = deur, toegang, huis.

En waarom niet met de letter aleph, het prinselijke alfa-dier,
een beest destijds met een vorstelijke schofthoogte van bijkans 2 meter?

Waarom weet men slechts in het Jemenitisch Hebreeuws welke sprinkhaansoorten koosjer zijn en welke treife?
Waarom ziet de stadsrabbijn er maar vanaf om dit te duiden?

Wat zegt AI over kweekvlees en waarom drinken we er toch later zwarte koffie bij?
Het bedrijf dat het produceert zit al in Maastricht.
Straks vindt u het in een McDonald's bij u in de buurt als gekweekt hamburger-vlees.
De koe loopt dan nog steeds in de wei.

Gaat het fout trek je de stekker eruit - uit deze hele ontwikkeling of uit de AI.

Anders wil ie straks onze huidige wereld veranderen en haar geheel op de kop zetten.
Namelijk in een variant gebouwd op siliconen, black goo en nanotechnologie.

We gaan het zien, beste robocop-vrindjes allemaal hier.
Reken maar van yes.

#webproxy
09-05-2023, 19:34 door Anoniem
@Anoniem 09-05-2023 9:55:
Hier dezelfde anoniem weer waar je op reageert, bedankt voor je uitgebreide reactie, interessant om te lezen.

Natuurlijk zullen er grote stappen gemaakt kunnen worden, het is een gebied wat volop in ontwikkeling is. Net zoals het internet zelf zal het waarschijnlijk commercieel uitgebuit worden voordat duidelijk is of dat überhaupt verantwoord is.
Mijn punt is: Als je zelf controle houd (en dat als eis in wetgeving opneemt) kan je het ook blijven beheersen, ongeacht hoe "intelligent" het is. Ik zet dat expres tussen quotes, want zeker in de huidige staat van de chatbots (taalmodellen) is het moeilijk echte intelligentie te noemen. Het bepaald zijn antwoorden op basis van wat op internet te vinden is, staat er een hoop onzin op internet over een bepaald onderwerp dan komt er ook onzin uit zo'n chatbot. Feit dat wij dat onderscheid soms direct zien en de chatbot iets voor waar presenteert geeft het verschil aan met echte intelligentie en dat er nog een hoop moet gebeuren. Het gevaar met deze modellen is vooral dat gebruikers het antwoord zonder enige controle voor waar aannemen.
Zojuist was er op het nieuws nog een item over een test waarbij patiënten ipv. met een huisarts met een chatbot contact hadden, in zo'n gevallen kan het letterlijk dodelijk zijn om een verkeerd advies blind op te volgen, nog buiten de privacy problematiek want als je data gaat natuurlijk wel naar de datagraaiers van deze wereld.

Maar dit zit allemaal opgesloten in computersystemen, hoe gevaarlijk kan dat nou helemaal worden? Een voldoende intelligente AI kan daar makkelijker aan ontsnappen dan je denkt. Er bestaan bijvoorbeeld laboratoria waar je DNA-sequenties aan kan e-mailen, die dan de daarin gecodeerde eiwitten produceren en die terugsturen aan de opdrachtgever. Als de intelligentie-verhouding overeenkomt met die tussen een kikker en een mens kan daar kunstmatig leven worden geproduceerd op een manier die ons eindeloos ver boven onze pet gaat. We zullen geen idee hebben wat ons overkomt en in de verste verte niet bij machte zijn er iets tegen te beginnen.
Ik zie vooral (technische) risico's die goed in te perken zijn. Zeker als je het geheel controleerbaar houdt.

Als we denken iets menselijks te herkennen in iets wat een computer doet schieten we snel door in het geven van betekenis daaraan, zie bijvoorbeeld ook het bekende ELIZA: https://en.wikipedia.org/wiki/ELIZA
De "intelligentie" daarvan was erg minimaal, toch werd er al een hoop betekenis aan geven. Wat ik daarmee wil zeggen: Laten we wel reëel kijken naar wat het kan en uitkijken dat we niet te veel betekenis geven aan menselijke trekjes die we denken te herkennen. Zoals met alles moeten we ook hier voorzichtig mee zijn, zeker zolang we die controle nog niet hebben. Doemscenario's daar geloof ik zelf niet zo snel in.
09-05-2023, 20:52 door Anoniem
Door Anoniem: Ja wie voedt dat AI-kind op?
#webproxy

Dat is toch wel duidelijk.
Dat AI-kind wordt vanaf zijn geboorte aan de tiet van het internet gehangen. Met een reguliere stroom aan voeding van Facebook, Twitter etc. krijgt het alle aspecten van de mensheid in geconcentreerde vorm binnen.

What could possibly go wrong?
Als hele volksstammen hun kennis en informatie bij FB opdoen, waarom het AI-kind dan niet?
What's good for the goose is good for the gander.

:-):-)

En voor de zekerheid:
[/sarcasme]


Wil de mensheid een AI-kind goed opvoeden, dan zal het zelf het goede voorbeeld moeten geven.
Kinderen behoren te leren van het voorbeeld van hun ouders.

... ... ...

(We're doomed)
09-05-2023, 21:06 door Anoniem
Niet te stoppen, er zal altijd wel iemand mee doorgaan
10-05-2023, 13:04 door Anoniem
@ anoniem van 20:52 van gister,

Dan troost ik me maar met de gedachte dat er nog flink wat mensen moeten zijn, die er mogelijk net zo over denken als u.

Als we alleen maar aan de krankzinnigheid van een seculiere Yuval Noah Harari waren overgeleverd
en zijn geplande 'woke' opvoeding van het AI-kind, dan ligt dit vast nu al in een "Terminator-trappelzakje". ;)
Dat Ha-Shem het moge verhoeden.

#webproxy
10-05-2023, 22:39 door Anoniem
Is zeer gevaarlijk, mensen hebben niet de hersencapaciteit om te kunnen bedenken wat zo'n AI allemaal wel en niet kan. Bijvoorbeeld je hersens hacken.
11-05-2023, 11:52 door Anoniem
@ anoniem van 22:39,

Daar zijn ze ondertussen al aardig mee bezig, dat hacken van die hersens.
Musk o.a.en Big Tech uit Silicon Valley en Silicon Forest uiteraard,

Yuval Noah Harari zegt het reeds, dat de mens een 'hackbaar dier' is geworden.

Besef dat jij originele eeuwige code bent en slechts een 'avatar' rolletje speelt in this earthly game.
Dat te midden van helaas ook een nog heleboel non-player agents, een imitatieve subsoort dus.

Denk aan de Matrix films. Er lopen nu reeds al heel wat gemodificeerde zombies rond.

Waarom vocht men de Falklands oorlog? Om zelfbewust materiaal, black goo, in handen te kunnen krijgen.
Niet zo wonderlijk, want water heeft ook geheugen en dus ook je eigen plasma net als zeewater.

Wat doet al die nanotechnologie dan, als het in je hersenen belandt?

Eerst zal AI alle mogelijke menselijke data analyseren om vervolgens voor een clubje,
die zich bijkans almachtig waant, de mensheid te kunnen gaan aansturen als een soort van cyberslaafjes.

En van die cyberslaafjes willen ze op malthusianistische wijze slechts, zo veel als ze nodig hebben, willen overhouden.

AI-ruled-world, geen leuk vooruitzicht dus, als het bovenstaande scenario echt speelt.
11-05-2023, 11:58 door Anoniem
Is zeer gevaarlijk, mensen hebben niet de hersencapaciteit om te kunnen bedenken wat zo'n AI allemaal wel en niet kan.
Goed verwoord.
Evenals vuurwapens niet gevaarlijk zijn (maar mensen die ermee omgaan), zie ik A.I. zelf niet als als gevaar.

Doch, men wil gewoon niet begrijpen dat "artificial intelligence" dus letterlijk "niet echte intelligentie" betekend / dat computers geen emoties hebben, en dat zelfs het actief geheugen van Rutte op termijn beter is.
Als je het i.p.v. hulpmiddel leidend maakt kun je wachten op affaires.
11-05-2023, 22:39 door Anoniem
Door Anoniem: Evenals vuurwapens niet gevaarlijk zijn (maar mensen die ermee omgaan), zie ik A.I. zelf niet als als gevaar.
Je laat uit je vergelijking weg dat een vuurwapen diezelfde mens aanzienlijk gevaarlijker maakt dan die zonder zou zijn. Het zijn geen onafhankelijke factoren, ze werken op elkaar in. Iemand die doordraait met een AR-15 kan op een school of in een winkelcentrum tientallen doden veroorzaken. Met een handvuurwapen zou het waarschijnlijk al veel minder erg uitpakken. Met een mes nog minder erg. Met blote vuisten nog minder erg. Een vuurwapen haalt niet zelf zijn trekker over, maar het vergroot het gevaar dat de mens oplevert die de trekker overhaalt enorm.

Doch, men wil gewoon niet begrijpen dat "artificial intelligence" dus letterlijk "niet echte intelligentie" betekend
Het is niet voor niets dat de Nederlandse vertaling niet nepintelligentie is maar kunstmatige intelligentie. Kunstmatig betekent dat het door de mens gemaakt is. En laat dat ook de eerste betekenis van artificial zijn. Er wordt niet mee bedoeld dat het niet echt is, er wordt mee bedoeld dat mensen het hebben gemaakt.

dat computers geen emoties hebben, en dat zelfs het actief geheugen van Rutte op termijn beter is.
Computers kunnen immense hoeveelheden data heel precies onthouden, en een AI-systeem kan zo gemaakt worden dat het er niet alleen mee getraind is maar dat het ook al die data beschikbaar heeft. Dat de huidige LLM's maar beperkt de dialoog die ze voeren kunnen "onthouden" betekent niet dat alles wat op dat gebied ooit gemaakt gaat worden ook zo beperkt is.

En dat een computer geen emoties heeft maakt hem niet veilig. Emoties zijn niet alleen maar destabiliserend, ze zijn vaak ook een rem op dingen die te ver gaan. Zonder emoties ontbreken een heleboel redenen om onwenselijke dingen niet te doen.

Als je het i.p.v. hulpmiddel leidend maakt kun je wachten op affaires.
Als we er als mensheid in slagen om een kunstmatig een intelligentie te maken die de onze overtreft dan zit het er dik in dat die prima in staat is om zichzelf leidend te maken. De kans is groot dat we niet eens doorhebben wat ons overkomt omdat hoe die AI ons manipuleert ons bevattingsvermogen te boven gaat. We denken dat het als hulmiddel gebruiken terwijl het ons leidt op manieren die we niet kunnen bevatten en dus niet opmerken.

En voor die manipulaties zijn geen emoties nodig, geen machtswellust, geen kwaadaardigheid, maar alleen maar de grilligheid van een systeem dat allerlei associaties en zijsporen volgt en waar het op uitkomt ook gaat uitvoeren omdat het geen reden heeft om dat niet te doen.
12-05-2023, 00:21 door Anoniem
Skynet zal werkelijkheid gaan worden
12-05-2023, 07:54 door Anoniem
Lem heeft er al over geschreven. Zijn de robot-wetten waar AI zich aan te houden heeft, al klaar en bekend?

Als malthesiaanse eugenetici de AI gaan inrichten, berg je dan maar als mensheid. Behoort een zogenaamd Vierde Rijk dan helemaal niet meer tot de mogelijkheden?
12-05-2023, 14:01 door Anoniem
Door Anoniem: Lem heeft er al over geschreven. Zijn de robot-wetten waar AI zich aan te houden heeft, al klaar en bekend?

Als malthesiaanse eugenetici de AI gaan inrichten, berg je dan maar als mensheid. Behoort een zogenaamd Vierde Rijk dan helemaal niet meer tot de mogelijkheden?

De "robot-wetten" zijn van Asimov. Niet van Lem.
En te abstract om bruikbaar te zijn voor AI.


https://nl.wikipedia.org/wiki/Drie_wetten_van_de_robotica

De oorspronkelijke drie wetten van de robotica (de calviniaanse religie):

Eerste Wet
Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.


Asimov baseerde de wetten op de basisprincipes van gereedschap, redenerend dat een robot feitelijk ook een soort gereedschap is:

1 - Gereedschap moet veilig zijn. Hamers en schroevendraaiers hebben bijvoorbeeld handvatten die de grip verbeteren. Als iemand toch gewond raakt dan zou dit in principe niet het gevolg moeten zijn van onveiligheid van het gereedschap maar van onjuist gebruik.

2 - Gereedschap moet zo efficiënt mogelijk zijn, tenzij dit gevaar oplevert voor de gebruiker. Een voorbeeld is een voertuig met een snelheidsbegrenzer.

3 - Gereedschap mag niet zomaar kapot gaan, tenzij het de bedoeling is dat het maar een beperkt aantal keren meegaat of dit ter waarborg voor de veiligheid van de gebruiker is.


Nulde wet
Later formuleerden Robot Daneel Olivaw en Robot Giskard Reventlov een nieuwe wet, die naar hun oordeel van meet af aan lag besloten in de eerste wet. Omdat deze wet boven de eerste staat, noemden zij hem de "Nulde Wet" (de Giskardiaanse reformatie).

Nulde Wet
Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade toegebracht wordt door zijn nalatigheid.

Gevolg voor de andere wetten:

Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt behalve als dit de Nulde Wet zou schenden.
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Nulde Wet of de Eerste Wet.
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Nulde, Eerste of Tweede Wet.


[...]

Robotwetten in de praktijk

In navolging van Asimovs drie wetten ontwierpen de robotwetenschappers Robin Murphy (Computer Science and Engineering van Texas A&M) en David D. Woods (directeur van het Cognitive Systems Engineering Laboratory in Ohio) de "Drie Wetten voor Verantwoordelijke Robotica":

1 Een mens mag geen robot inzetten wanneer dit werk met de robot niet voldoet aan de hoogste wettelijke en professionele normen van veiligheid en ethiek.
2 Een robot moet afhankelijk van zijn functie mensen voldoende kunnen beantwoorden.
3 Een robot moet worden begiftigd met genoeg toereikende autonomie om zijn eigen bestaan te kunnen beschermen, zolang hij hierdoor gemakkelijk te bedienen blijft en zijn autonomie niet in strijd is met de Eerste en de Tweede Wet.


einde citaat.

Hoe ga je dit alles in een AI inprogrammeren?
12-05-2023, 16:16 door Anoniem
De kans is groot dat we niet eens doorhebben wat ons overkomt omdat hoe die AI ons manipuleert ons bevattingsvermogen te boven gaat.
Ik was voor pauzeren, maar neig nu naar stoppen.
12-05-2023, 17:00 door Anoniem
Door Anoniem:
De kans is groot dat we niet eens doorhebben wat ons overkomt omdat hoe die AI ons manipuleert ons bevattingsvermogen te boven gaat.
Ik was voor pauzeren, maar neig nu naar stoppen.

Te laat.
We (de mensheid) heeft AI bedacht, en de eerste stappen gezet, stoppen of pauzeren kan niet meer. Een groep binnen de mensheid zal er toch mee doorgaan. Ongeacht mogelijke verboden.
Of om commerciele, of om politieke of om militaire redenen. Maar doorgaan zullen ze. Want ze zullen nooit geloven dan alle anderen er echt mee gestopt zijn.
De jinn/geest is al uit de fles ontsnapt. Hem er weer in krijgen, is zo makkelijk nog niet.
13-05-2023, 09:51 door Anoniem
De jinn/geest is al uit de fles ontsnapt. Hem er weer in krijgen, is zo makkelijk nog niet.
Als je ziet hoe Rusland, China en Amerika hier mee bezig zijn op militair gebied dan lost het zich zelf wel
op. Dit is waarschijnlijk nog gevaarlijker als een atoombom want die wordt niet zo snel gebruikt want de
mens weet het resultaat hiervan.
13-05-2023, 13:58 door Anoniem
Stel dat een farmaceut zegt: we hebben een nieuw, zeer krachtig middel. We hebben het getest, maar zeggen niet hoe. We zeggen ook niet hoe het werkt. Dat begrijpen we zelf niet volledig. Nu gaan we dat spul bij de wereldbevolking injecteren, omdat we dan pas duidelijk de voor- en nadelen zien.

https://www.volkskrant.nl/columns-opinie/de-mensen-achter-ai-verdienen-ons-diepe-wantrouwen-en-strikte-regels~b12df0c3/
13-05-2023, 18:19 door EersteEnigeEchte M.J. - EEEMJ
Door Anoniem: Stel dat een farmaceut zegt: we hebben een nieuw, zeer krachtig middel. We hebben het getest, maar zeggen niet hoe. We zeggen ook niet hoe het werkt. Dat begrijpen we zelf niet volledig. Nu gaan we dat spul bij de wereldbevolking injecteren, omdat we dan pas duidelijk de voor- en nadelen zien.

https://www.volkskrant.nl/columns-opinie/de-mensen-achter-ai-verdienen-ons-diepe-wantrouwen-en-strikte-regels~b12df0c3/

Drie vragen:
1. Mensen reageren nu m.b.t. AI veel kritischer en bezorgder dan tijdens de tech-revolutie met mRNA-middelen. Waarom?
2. Ik weet het niet, maar vraag me af of Kustaw Bessems twee jaar geleden tijdens de corona-crisis even kritische colums over de inzet van experimentele mRNA-middelen schreef als nu over experimentele "AI". Zo niet - waarom toen niet en nu wel? Misschien omdat Google, Hinton en andere grote namen /leiders nu wel aan de bel getrokken hebben en Bessems zich daardoor vrij voelt om in een column hetzelfde te doen?
3. Waarom wordt verontruste kritiek op een technologische revolutie nu wel van hogerhand toegestaan en kennelijk zelfs aangemoedigd, maar twee jaar geleden tijdens de corona-crisis niet? Wat is er aan de hand? Welke belangen spelen er dit keer een rol? In welk opzicht verschillen die van de dominante belangen twee jaar geleden?

M.J.
13-05-2023, 18:39 door Anoniem
Door EersteEnigeEchte M.J. - EEEMJ:
Door Anoniem: Stel dat een farmaceut zegt: we hebben een nieuw, zeer krachtig middel. We hebben het getest, maar zeggen niet hoe. We zeggen ook niet hoe het werkt. Dat begrijpen we zelf niet volledig. Nu gaan we dat spul bij de wereldbevolking injecteren, omdat we dan pas duidelijk de voor- en nadelen zien.

https://www.volkskrant.nl/columns-opinie/de-mensen-achter-ai-verdienen-ons-diepe-wantrouwen-en-strikte-regels~b12df0c3/

Drie vragen:
1. Mensen reageren nu m.b.t. AI veel kritischer en bezorgder dan tijdens de tech-revolutie met mRNA-middelen. Waarom?
2. Ik weet het niet, maar vraag me af of Kustaw Bessems twee jaar geleden tijdens de corona-crisis even kritische colums over de inzet van experimentele mRNA-middelen schreef als nu over experimentele "AI". Zo niet - waarom toen niet en nu wel? Misschien omdat Google, Hinton en andere grote namen /leiders nu wel aan de bel getrokken hebben en Bessems zich daardoor vrij voelt om in een column hetzelfde te doen?
3. Waarom wordt verontruste kritiek op een technologische revolutie nu wel van hogerhand toegestaan en kennelijk zelfs aangemoedigd, maar twee jaar geleden tijdens de corona-crisis niet? Wat is er aan de hand? Welke belangen spelen er dit keer een rol? In welk opzicht verschillen die van de dominante belangen twee jaar geleden?

M.J.


Simpel:

Welk acuut probleem vormt AI op dit moment?
Hoeveel mensen zijn nu al gestorven of ziek geworden door AI?

Mensen werden ziek, en zagen mensen om zich heen ziek worden. Wereldwijd. Het gevolg: een paniek stemming.
Als politici toen niets gedaan hadden, dan hadden ze het verwijt gehad niets om de kiezer te geven, en bij eerstvolgende verkiezingen hun baantje verloren.
Dus namen ze maatregelen voor "het algemene nut'.

Projecteer dit nu eens op AI. Hoeveel zieken, gewonden of doden zijn er tot nu toe agv AI gevallen?
Welke druk is er op politici om nu met spoed maatregelen door te drukken voor "het algemene goed".
14-05-2023, 09:01 door Anoniem
Projecteer dit nu eens op AI. Hoeveel zieken, gewonden of doden zijn er tot nu toe agv AI gevallen?
Je kunt ook een andere kant van het verhaal zien, als Rusland nu een hoog ontwikkeld AL systeem had
dan waren het niet meer de generaals die beslissing maakte maar AL. Die kan met alle beschikbare gegevens
beslissen nemen hoe deze oorlog gewonnen kan worden. Bedenk dat geen mens met die beschikbare gegevens
de juiste beslissingen kan nemen zoals AL dat blijkbaar wel kan.En deze gegevens gaan terug in de tijd en er zijn
gegevens die nog geen minuut oud zij, denk hier bijvoorbeeld aan troepen verplaatsingen

Wat waren ze trots dat een computer spelletjes als Go, of stratego kon winnen van de mens, begrijp wel dat hier de
mens verloren heeft van de computer.

Dit is voor mij uiteraard toekomst visie want ik weet net zoals de rest hier echt niet hoever ze hier mee zijn. Het
maakt mij niet meer beangstigend, de mens is als een sneeuw bal hij blijft maar doorrollen tot er zoveel vernietigd
is dat het geen belang meer heeft waar hij stopt.
15-05-2023, 12:17 door Jan Kol
Stoppen met de ontwikkeling van AI is geen optie, want als het verboden wordt gaat het "ondergronds" gewoon door. En dat dan waarschijnlijk vooral door lieden waarvan je dat liever niet hebt. Sterke software ontwikkelen, die de uitwassen of ongewenste ontwikkelingen van AI kan opsporen en bestrijden, zou de hoogste prioriteit moeten hebben. Een 100% zekerheid dat je die ontwikkeling stopt is er niet maar vergelijk dit met computervirusbestrijding, ook dat heeft resultaten opgeleverd (Al zou je soms denken van niet als je ziet hoe onvoorzichtig velen zijn als het om computerveiligheid gaat). Met adequate antwoorden en reacties boek je meer resultaat dunkt mij dan met verbieden.
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.