/dev/null - Overig

Wetten der Robotica: Toegepast op AI?

Vandaag, 00:01 door Anoniem, 6 reacties
Ik bekeek de documentaire "Science Fiction in the Atomic Age" op NPO2Extra, aflevering 2.

Daarin stelt professor Adam Roberts dat de door Isaac Asimov bedachte 3 Wetten der Robotica heden ten dage worden toegepast op AI. (3de minuut)

Alleen al gezien de berichtgeving en commentaar hier vraag ik mij af: Is dat wel het geval?

Gaarne Uw ethische en filosofische bekommernis of inzicht hierover.

Wetten der Robotica introductie:
https://nl.m.wikipedia.org/wiki/Drie_wetten_van_de_robotica
Reacties (6)
Vandaag, 13:51 door Named
Neen, in ieder geval niet letterlijk.

Veel AI's hebben ingebouwde maatregelen tegen verkeerd gebruik, maar dat is te omzeilen.
En sommige AI's hebben volgens mij helemaal geen filter of beveiliging.
(Al helemaal als je hem zelf maakt en traint, dan is er geen enkel filter op zijn uitvoer.)
Vandaag, 15:38 door Anoniem
Vanavond het derde deel van vier afleveringen op NPO-2 start op YT staan alle afleveringen
Vandaag, 16:18 door Anoniem
Wat de professor vergeet is dat Asimov vervolgens met zijn verhalen en boeken waarin die drie wetten voorkomen aantoonde, dat die wetten omzeild kunnen worden.
Om over de Nulde wet nog maar te zwijgen. Wat is een bruikbare definitie van Mensheid?

Bij Asimov werden die wetten hard gecodeerd in positronische breinen. Bij het ontwerp van die breinen al.
Het zijn dus geen coderegeltjes die je achteraf nog even toevoegt (of weer uitcommentarieert), zoals bij LLMs gebeurt.

De vergelijking gaat dus mank. En zal dus eerder als een panasee aangeboden worden, om mogelijke angst voor AI (het frankenstein syndroom) te dempen.

Het Frankenstein sysdroom is trouwens ook een Asimov bedenksel:
https://en.wikipedia.org/wiki/Frankenstein_complex
Vandaag, 16:48 door Anoniem
Hm, van Wikipedia:
Eerste Wet
]Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Dus als ik tegen een robot zeg: vernietig jezelf, dan mag die zijn eigen bestaan volgens de derde wet alleen beschermen als dat niet in strijd is met de eerste twee wetten. Volgens de tweede wet moet de robot dit bevel uitvoeren, behalve als het in strijd is met de eerste wet. Volgens de eerste wet mag de robot het bevel alleen weigeren als dat tot letsel van een mens zou leiden. Dus kan een robot een bevel om zichzelf te vernietigen alleen negeren als zijn zelfvernietiging tot letsel bij mensen zou leiden.

Dus als ChatGPT, dat niemand tegen letsel beschermt, de opdracht krijgt: vernietig jezelf, is dat dan het einde van ChatGPT?

Ik vermoed niet dat er ook maar één AI-systeem te vinden is dat volledig aan de originele wetten van Asimov voldoet.

Maar ik denk ook dat Asimov in die wetten, zoals origineel geformuleerd, een wel heel ernstige kwetsbaarheid voor een DOS-aanval open heeft gelaten ;-)
Vandaag, 16:52 door Anoniem
De wetten van robotica werken niet eens op robotica in de eigenwerken van Asimov
Het is fictie uit een boeken reeks mensen het is niet iets dat we pratisch toepassen.
Het is gebaseerd op een gesprek van Isaac Asimov met John W. Campbell en je raad het al een science fiction auteur.
Asimov zelf onkrachte de werking van zijn geschreven wetten herhaaldelijk in zijn eigen werken dat was een van de plot devices.

Het is fictie dat nog wel toegepast wordt in gedachte experimenten maar niet in de praktijk qua techniek enkel in films en boeken. En wees daar maar heel blij om anders stond de boel in hens als we werkelijk systemen hadden die uberhaubt overweg konden met die wetten. Qua gedachte experimenten zijn er ook al voorstellen geweest van extra wetten om wat problemen op te lossen met de drie bestaande in fictie. Zoals een Robot of A.I. mag niet een mens misleiden door zich voor te doen als mens. En dat is maar een voorbeeld van hoe je dus om die wetten heen kon werken. Wat nogmaals Asimov de auteur zelf ook over schreef.

En uiteraard zijn er wel regels code te verzinnen in de praktijk die bepaalde acties kunnen voorkomen maar dat is niet iets dat je in een wet kan verwerken omdat de code afhankelijk is van de taal waar het in geschreven wordt en welke onderliggende functies je aanroept, ontwikkelt. Als je dit soort dingen wil betrekken tot a.i. wel kijk naar amerikaanse luchtmacht gedachte experiment als voorbeeld waarom het niet werkt. En again gedachte experiment het is niet werkelijk uitgevoerd. https://nypost.com/2023/06/01/ai-enabled-drone-killed-human-operator-in-simulated-test/
We trained the system — ‘Hey don’t kill the operator — that’s bad,” Hamilton explained.

“You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

Bottomline:
Als een professor dus zegt dat we deze wetten toepassen danzijn er drie scenarios mogelijk.

1. Professor lult uit zijn nek

2. Professor legt het onder een niveau uit dat je niet mag verwachten van een professor omdat hij verwacht dat het publiek hem anders niet volgt.

3. Of de OP interpreteert het antwoord van de professor in de documentaire op een andere manier dan deze het bedoeld.


En dat laatste kan ik niet controleren want ik heb geen toegang tot de bron of een transcript van wat er is gezegd.
Vandaag, 17:05 door Anoniem
Door Anoniem: Is dat wel het geval?

Het gebruik van AI voor de selectie van doelwitten en de inzet van autonome wapens is op de actuele slagvelden een feit. Zowel aan het front in Oekraïne als in het Midden-Oosten maken de strijdende partijen zich daar schuldig aan. Dus het antwoord is: nee, de wetten van Azimov, een humanistisch ideaal, worden dagelijks met de voeten getreden.

VPRO Tegenlicht
Game of Drones
zondag 6 april, NPO 2

De oorlog van de toekomst vindt nu al plaats en drones spelen daarin een hoofdrol. In Oekraïne zijn drones niet alleen verkenners in de lucht, maar ook geavanceerde wapens die tanks uitschakelen en soldaten opjagen. Zelfs drone-op-drone gevechten zijn geen toekomstbeeld meer, maar realiteit. VPRO Tegenlicht onderzoekt hoe deze technologie het strijdtoneel voorgoed verandert. Hoe dichtbij zijn we bij de ultieme killer drone, een autonoom wapen dat zonder enige menselijke tussenkomst een doelwit selecteert en vernietigt?

https://www.vpro.nl/programmas/tegenlicht/kijk/afleveringen/2025-2026/game-of-drones.html

Eén van de zes geïnterviewde experts en ervaringsdeskundigen in deze huiveringwekkende documentaire:

Prof. Elke Schwarz, PhD. (Queen Mary University, London) onderzoekt de ethiek rondom politiek en oorlogsvoering met opkomende militaire technologieën, zoals militaire kunstmatige intelligentie, autonome wapens, drones en robots. Daarover schreef ze het boek 'Death Machines: The Ethics of Violent Technologies' (Manchester University, 2018).
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.