/dev/null - Overig

Wetten der Robotica: Toegepast op AI?

18-06-2025, 00:01 door Anoniem, 35 reacties
Ik bekeek de documentaire "Science Fiction in the Atomic Age" op NPO2Extra, aflevering 2.

Daarin stelt professor Adam Roberts dat de door Isaac Asimov bedachte 3 Wetten der Robotica heden ten dage worden toegepast op AI. (3de minuut)

Alleen al gezien de berichtgeving en commentaar hier vraag ik mij af: Is dat wel het geval?

Gaarne Uw ethische en filosofische bekommernis of inzicht hierover.

Wetten der Robotica introductie:
https://nl.m.wikipedia.org/wiki/Drie_wetten_van_de_robotica
Reacties (35)
18-06-2025, 13:51 door Named
Neen, in ieder geval niet letterlijk.

Veel AI's hebben ingebouwde maatregelen tegen verkeerd gebruik, maar dat is te omzeilen.
En sommige AI's hebben volgens mij helemaal geen filter of beveiliging.
(Al helemaal als je hem zelf maakt en traint, dan is er geen enkel filter op zijn uitvoer.)
18-06-2025, 15:38 door Anoniem
Vanavond het derde deel van vier afleveringen op NPO-2 start op YT staan alle afleveringen
18-06-2025, 16:18 door Anoniem
Wat de professor vergeet is dat Asimov vervolgens met zijn verhalen en boeken waarin die drie wetten voorkomen aantoonde, dat die wetten omzeild kunnen worden.
Om over de Nulde wet nog maar te zwijgen. Wat is een bruikbare definitie van Mensheid?

Bij Asimov werden die wetten hard gecodeerd in positronische breinen. Bij het ontwerp van die breinen al.
Het zijn dus geen coderegeltjes die je achteraf nog even toevoegt (of weer uitcommentarieert), zoals bij LLMs gebeurt.

De vergelijking gaat dus mank. En zal dus eerder als een panasee aangeboden worden, om mogelijke angst voor AI (het frankenstein syndroom) te dempen.

Het Frankenstein sysdroom is trouwens ook een Asimov bedenksel:
https://en.wikipedia.org/wiki/Frankenstein_complex
18-06-2025, 16:48 door Anoniem
Hm, van Wikipedia:
Eerste Wet
]Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.

Tweede Wet
Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.

Derde Wet
Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Dus als ik tegen een robot zeg: vernietig jezelf, dan mag die zijn eigen bestaan volgens de derde wet alleen beschermen als dat niet in strijd is met de eerste twee wetten. Volgens de tweede wet moet de robot dit bevel uitvoeren, behalve als het in strijd is met de eerste wet. Volgens de eerste wet mag de robot het bevel alleen weigeren als dat tot letsel van een mens zou leiden. Dus kan een robot een bevel om zichzelf te vernietigen alleen negeren als zijn zelfvernietiging tot letsel bij mensen zou leiden.

Dus als ChatGPT, dat niemand tegen letsel beschermt, de opdracht krijgt: vernietig jezelf, is dat dan het einde van ChatGPT?

Ik vermoed niet dat er ook maar één AI-systeem te vinden is dat volledig aan de originele wetten van Asimov voldoet.

Maar ik denk ook dat Asimov in die wetten, zoals origineel geformuleerd, een wel heel ernstige kwetsbaarheid voor een DOS-aanval open heeft gelaten ;-)
18-06-2025, 16:52 door Anoniem
De wetten van robotica werken niet eens op robotica in de eigenwerken van Asimov
Het is fictie uit een boeken reeks mensen het is niet iets dat we pratisch toepassen.
Het is gebaseerd op een gesprek van Isaac Asimov met John W. Campbell en je raad het al een science fiction auteur.
Asimov zelf onkrachte de werking van zijn geschreven wetten herhaaldelijk in zijn eigen werken dat was een van de plot devices.

Het is fictie dat nog wel toegepast wordt in gedachte experimenten maar niet in de praktijk qua techniek enkel in films en boeken. En wees daar maar heel blij om anders stond de boel in hens als we werkelijk systemen hadden die uberhaubt overweg konden met die wetten. Qua gedachte experimenten zijn er ook al voorstellen geweest van extra wetten om wat problemen op te lossen met de drie bestaande in fictie. Zoals een Robot of A.I. mag niet een mens misleiden door zich voor te doen als mens. En dat is maar een voorbeeld van hoe je dus om die wetten heen kon werken. Wat nogmaals Asimov de auteur zelf ook over schreef.

En uiteraard zijn er wel regels code te verzinnen in de praktijk die bepaalde acties kunnen voorkomen maar dat is niet iets dat je in een wet kan verwerken omdat de code afhankelijk is van de taal waar het in geschreven wordt en welke onderliggende functies je aanroept, ontwikkelt. Als je dit soort dingen wil betrekken tot a.i. wel kijk naar amerikaanse luchtmacht gedachte experiment als voorbeeld waarom het niet werkt. En again gedachte experiment het is niet werkelijk uitgevoerd. https://nypost.com/2023/06/01/ai-enabled-drone-killed-human-operator-in-simulated-test/
We trained the system — ‘Hey don’t kill the operator — that’s bad,” Hamilton explained.

“You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

Bottomline:
Als een professor dus zegt dat we deze wetten toepassen danzijn er drie scenarios mogelijk.

1. Professor lult uit zijn nek

2. Professor legt het onder een niveau uit dat je niet mag verwachten van een professor omdat hij verwacht dat het publiek hem anders niet volgt.

3. Of de OP interpreteert het antwoord van de professor in de documentaire op een andere manier dan deze het bedoeld.


En dat laatste kan ik niet controleren want ik heb geen toegang tot de bron of een transcript van wat er is gezegd.
18-06-2025, 17:05 door Anoniem
Door Anoniem: Is dat wel het geval?

Het gebruik van AI voor de selectie van doelwitten en de inzet van autonome wapens is op de actuele slagvelden een feit. Zowel aan het front in Oekraïne als in het Midden-Oosten maken de strijdende partijen zich daar schuldig aan. Dus het antwoord is: nee, de wetten van Azimov, een humanistisch ideaal, worden dagelijks met de voeten getreden.

VPRO Tegenlicht
Game of Drones
zondag 6 april, NPO 2

De oorlog van de toekomst vindt nu al plaats en drones spelen daarin een hoofdrol. In Oekraïne zijn drones niet alleen verkenners in de lucht, maar ook geavanceerde wapens die tanks uitschakelen en soldaten opjagen. Zelfs drone-op-drone gevechten zijn geen toekomstbeeld meer, maar realiteit. VPRO Tegenlicht onderzoekt hoe deze technologie het strijdtoneel voorgoed verandert. Hoe dichtbij zijn we bij de ultieme killer drone, een autonoom wapen dat zonder enige menselijke tussenkomst een doelwit selecteert en vernietigt?

https://www.vpro.nl/programmas/tegenlicht/kijk/afleveringen/2025-2026/game-of-drones.html

Eén van de zes geïnterviewde experts en ervaringsdeskundigen in deze huiveringwekkende documentaire:

Prof. Elke Schwarz, PhD. (Queen Mary University, London) onderzoekt de ethiek rondom politiek en oorlogsvoering met opkomende militaire technologieën, zoals militaire kunstmatige intelligentie, autonome wapens, drones en robots. Daarover schreef ze het boek 'Death Machines: The Ethics of Violent Technologies' (Manchester University, 2018).
19-06-2025, 06:54 door Anoniem
Denk ook aan een grote SF-schrijver als Asimov met zijn roboticawetten.

Maar de realiteit gaat anders zijn.

Wij gaan de robot geen wetten stellen. Het zal eerder andersom zijn.

Bent u er klaar voor? Nie ma problemu!

#luntrus
19-06-2025, 12:19 door Anoniem
Door Anoniem: Denk ook aan een grote SF-schrijver als Asimov met zijn roboticawetten.

Maar de realiteit gaat anders zijn.

Wij gaan de robot geen wetten stellen. Het zal eerder andersom zijn.

Bent u er klaar voor? Nie ma problemu!

#luntrus

Skynet?
19-06-2025, 15:35 door Anoniem
Door Anoniem: De wetten van robotica werken niet eens op robotica in de eigenwerken van Asimov
Het is fictie uit een boeken reeks mensen het is niet iets dat we pratisch toepassen.
Het is gebaseerd op een gesprek van Isaac Asimov met John W. Campbell en je raad het al een science fiction auteur.
Asimov zelf onkrachte de werking van zijn geschreven wetten herhaaldelijk in zijn eigen werken dat was een van de plot devices.

Het is fictie dat nog wel toegepast wordt in gedachte experimenten maar niet in de praktijk qua techniek enkel in films en boeken. En wees daar maar heel blij om anders stond de boel in hens als we werkelijk systemen hadden die uberhaubt overweg konden met die wetten. Qua gedachte experimenten zijn er ook al voorstellen geweest van extra wetten om wat problemen op te lossen met de drie bestaande in fictie. Zoals een Robot of A.I. mag niet een mens misleiden door zich voor te doen als mens. En dat is maar een voorbeeld van hoe je dus om die wetten heen kon werken. Wat nogmaals Asimov de auteur zelf ook over schreef.

En uiteraard zijn er wel regels code te verzinnen in de praktijk die bepaalde acties kunnen voorkomen maar dat is niet iets dat je in een wet kan verwerken omdat de code afhankelijk is van de taal waar het in geschreven wordt en welke onderliggende functies je aanroept, ontwikkelt. Als je dit soort dingen wil betrekken tot a.i. wel kijk naar amerikaanse luchtmacht gedachte experiment als voorbeeld waarom het niet werkt. En again gedachte experiment het is niet werkelijk uitgevoerd. https://nypost.com/2023/06/01/ai-enabled-drone-killed-human-operator-in-simulated-test/
We trained the system — ‘Hey don’t kill the operator — that’s bad,” Hamilton explained.

“You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

Bottomline:
Als een professor dus zegt dat we deze wetten toepassen danzijn er drie scenarios mogelijk.

1. Professor lult uit zijn nek

2. Professor legt het onder een niveau uit dat je niet mag verwachten van een professor omdat hij verwacht dat het publiek hem anders niet volgt.

3. Of de OP interpreteert het antwoord van de professor in de documentaire op een andere manier dan deze het bedoeld.


En dat laatste kan ik niet controleren want ik heb geen toegang tot de bron of een transcript van wat er is gezegd.

Ik ben toevallig Asimov's boek "I, robot" aan het lezen en raakte totaal in de war van de topic starter.
Het hele boek draait om het idee dat de 'regels' niet correct zijn en de problemen die we daardoor kunnen krijgen.

Dus voor wie dit leest, pak het boek erbij en laat zet de TV (NPO) maar even uit. Het boek is veel interessanter.
Zo gaat het eerste verhaal over een kind dat helemaal niet meer wil spelen met andere kinderen en enkel nog voorkeur heeft voor haar robot vriend. Dat komt omdat een robot haar ongekende aandacht en liefde geeft, iets dat mensen nooit zullen kunnen. Het reflecteert zelfs al heel goed tegen de social media problemen van vandaag de dag, kinderen zitten liever achter een ipad dan dat ze buiten spelen met andere kinderen spelen.

We gaan een heel bizare wereld tegemoet.
19-06-2025, 17:34 door Anoniem
@15:35

Juist! Misschien dat het goede van de AI-revolutie zit in het feit dat dit het denken over mens en machine(taal) -wat we vroeger in lekentaal gewoon C: noemden, als terzijde- weer volop onder de aandacht brengt.

Waarbij ik helaas moet opmerken dat traditionele radio- en televisiemakers wel erg achterblijven bij het uitdiepen op dit onderwerp, of hebben we in Nederland geen bijzondere denkers op dit gebied? Of is rtv lafjes vanwege wanbeleid, of censuur?

Kruisbestuiving tussen verschillende disciplines uit de wetenschap, zou intellectuele voorhoede moeten gaan vormen, in de transitie naar AI-samenleving, waar voor elk wat wils is, en dan definieer ik die samenleving dus niet als dystopie, en ook niet als utopie, maar iets er tussen in.

Maar misschien gaat daar eerst wel een wereldoorlog overheen om die samenleving vorm te geven, wie weet. We zitten nu in de post-Corona fase, en tijdens de Corona, hebben heel wat beroepsuitoefenaars flink wat steken laten vallen, in hun voor de fanfare uit lopen op de post-Corona tijd, en misschien is het tijd om eerst de vloer aan te gaan vegen met die mensen, omdat ze iets verschrikkelijk over het hoofd hebben gezien.

Als een revolutie die eerst zijn eigen kinderen met huid en haar moet verslinden, om een waarachtig, acceptabel & geloofwaardig perspectief te kunnen gaan uitdragen. Want dat is er nu niet.
19-06-2025, 18:54 door Anoniem
Door Anoniem:
Door Anoniem: De wetten van robotica werken niet eens op robotica in de eigenwerken van Asimov
Het is fictie uit een boeken reeks mensen het is niet iets dat we pratisch toepassen.
Het is gebaseerd op een gesprek van Isaac Asimov met John W. Campbell en je raad het al een science fiction auteur.
Asimov zelf onkrachte de werking van zijn geschreven wetten herhaaldelijk in zijn eigen werken dat was een van de plot devices.

Het is fictie dat nog wel toegepast wordt in gedachte experimenten maar niet in de praktijk qua techniek enkel in films en boeken. En wees daar maar heel blij om anders stond de boel in hens als we werkelijk systemen hadden die uberhaubt overweg konden met die wetten. Qua gedachte experimenten zijn er ook al voorstellen geweest van extra wetten om wat problemen op te lossen met de drie bestaande in fictie. Zoals een Robot of A.I. mag niet een mens misleiden door zich voor te doen als mens. En dat is maar een voorbeeld van hoe je dus om die wetten heen kon werken. Wat nogmaals Asimov de auteur zelf ook over schreef.

En uiteraard zijn er wel regels code te verzinnen in de praktijk die bepaalde acties kunnen voorkomen maar dat is niet iets dat je in een wet kan verwerken omdat de code afhankelijk is van de taal waar het in geschreven wordt en welke onderliggende functies je aanroept, ontwikkelt. Als je dit soort dingen wil betrekken tot a.i. wel kijk naar amerikaanse luchtmacht gedachte experiment als voorbeeld waarom het niet werkt. En again gedachte experiment het is niet werkelijk uitgevoerd. https://nypost.com/2023/06/01/ai-enabled-drone-killed-human-operator-in-simulated-test/
We trained the system — ‘Hey don’t kill the operator — that’s bad,” Hamilton explained.

“You’re gonna lose points if you do that’. So what does it start doing? It starts destroying the communication tower that the operator uses to communicate with the drone to stop it from killing the target.”

Bottomline:
Als een professor dus zegt dat we deze wetten toepassen danzijn er drie scenarios mogelijk.

1. Professor lult uit zijn nek

2. Professor legt het onder een niveau uit dat je niet mag verwachten van een professor omdat hij verwacht dat het publiek hem anders niet volgt.

3. Of de OP interpreteert het antwoord van de professor in de documentaire op een andere manier dan deze het bedoeld.


En dat laatste kan ik niet controleren want ik heb geen toegang tot de bron of een transcript van wat er is gezegd.

Ik ben toevallig Asimov's boek "I, robot" aan het lezen en raakte totaal in de war van de topic starter.
Het hele boek draait om het idee dat de 'regels' niet correct zijn en de problemen die we daardoor kunnen krijgen.

Dus voor wie dit leest, pak het boek erbij en laat zet de TV (NPO) maar even uit. Het boek is veel interessanter.
Zo gaat het eerste verhaal over een kind dat helemaal niet meer wil spelen met andere kinderen en enkel nog voorkeur heeft voor haar robot vriend. Dat komt omdat een robot haar ongekende aandacht en liefde geeft, iets dat mensen nooit zullen kunnen. Het reflecteert zelfs al heel goed tegen de social media problemen van vandaag de dag, kinderen zitten liever achter een ipad dan dat ze buiten spelen met andere kinderen spelen.

We gaan een heel bizare wereld tegemoet.

Lees dan ook de volgende boeken van Asimov:

Daneel Olivaw:
- The Caves Of Steel (1954),
- The Naked Sun (1957),
- The Robots Of Dawn (1983),
- Robots and Empire (1985),

Demerzel:
- Prelude to Foundation (1988),
- Forward the Foundation (1993),

(de Foundation trilogy als je zin hebt)

Gaia:
- Foundation's Edge (1982),
- Foundation and Earth (1986)
20-06-2025, 06:45 door Anoniem
Hee, Frankenstein niet vergeten!

Geschreven door de 21 jarige jongedame Mary Selley in 1818. Wordt door velen beschouwd als de eerste SF roman. Industriele revolutie was in volle gang!

Het boek verhaalt over verantwoordelijkheid en creativiteit, morele verantwoordelijkheid en uitvindingen.

Van iets doods, iets levends maken. Dat het Frankenstein monster met electriciteit werd opgewekt is een filmische verbeelding van het originele verhaal, en ook alweer bijna een eeuw geleden gemaakt.

De orginele tekst Frankenstein uit 1818, met annotaties en essay's over sociale en ethische aspecten van wetenschappelijke creativiteit, is gebundeld in Frankenstein: Annotated for Scientists, Engineers, and Creators of All Kinds

Nog leuker is dat het een open access document (pdf) is. Sommige essay's zijn echt de moeite waard. Als je het lezen van de hele roman Frankenstein niet ziet zitten, maar commentaren op het beschreven thema wel, kan je de becommentarieerde passages in de roman zelf terugzoeken.

Of je het zelf eens bent wat er beweerd wordt over dit thema en dat boek enzo.

https://direct.mit.edu/books/book/3542/FrankensteinAnnotated-for-Scientists-Engineers-and
20-06-2025, 07:06 door Anoniem
Ik zou pas bang worden als een robot "Samson" of "Simson" zou heten
en in bepaalde gevallen zich erna zo zou gedragen:
"Ik niet alles, jullie dan zeker ook niets".
20-06-2025, 09:57 door Anoniem
Ik hoop niet dat het het geval is;

Het zou namelijk inhouden dat men niet in staat is iets concreets te bedenken en daarom maar terugvallen op een nog nooit in de praktijk toegepaste fictieve set regels uit een verhaal.
20-06-2025, 11:26 door Anoniem
Door Anoniem: Ik hoop niet dat het het geval is;

Het zou namelijk inhouden dat men niet in staat is iets concreets te bedenken en daarom maar terugvallen op een nog nooit in de praktijk toegepaste fictieve set regels uit een verhaal.

Ook omdat de regels nogal abstract zijn. Hoe moet een machine of LLM daar mee om gaan.
- Wat is een mens.
- Wat is een robot.
- Wat is de mensheid.
- Wat is schade/letsel.
Probeer dat allemaal eens in heldere concrete termen te definieren, en wat valt er dan buiten de boot?
20-06-2025, 16:53 door Anoniem
Door Anoniem:
Door Anoniem: Ik hoop niet dat het het geval is;

Het zou namelijk inhouden dat men niet in staat is iets concreets te bedenken en daarom maar terugvallen op een nog nooit in de praktijk toegepaste fictieve set regels uit een verhaal.

Ook omdat de regels nogal abstract zijn. Hoe moet een machine of LLM daar mee om gaan.
- Wat is een mens.
- Wat is een robot.
- Wat is de mensheid.
- Wat is schade/letsel.
Probeer dat allemaal eens in heldere concrete termen te definieren, en wat valt er dan buiten de boot?

Je zou deze vragen ook aan verschillende chatbots kunnen stellen.

En...hebben de antwoorden je verder geholpen? Kan je een ander met die antwoorden verder helpen?
20-06-2025, 17:24 door Anoniem
Door Anoniem:
Door Anoniem:
Door Anoniem: Ik hoop niet dat het het geval is;

Het zou namelijk inhouden dat men niet in staat is iets concreets te bedenken en daarom maar terugvallen op een nog nooit in de praktijk toegepaste fictieve set regels uit een verhaal.

Ook omdat de regels nogal abstract zijn. Hoe moet een machine of LLM daar mee om gaan.
- Wat is een mens.
- Wat is een robot.
- Wat is de mensheid.
- Wat is schade/letsel.
Probeer dat allemaal eens in heldere concrete termen te definieren, en wat valt er dan buiten de boot?

Je zou deze vragen ook aan verschillende chatbots kunnen stellen.

En...hebben de antwoorden je verder geholpen? Kan je een ander met die antwoorden verder helpen?

Dus "we" gaan een LLM vragen wat een mens is en wat een robot (of een AI) is.
En hoe een AI gebouwd kan worden met Asimov's wetten er structureel in verweven?

Ga je gang.
Ik heb blijkbaar geen handigheid in het stellen van de "juiste" vragen om AI met bruikbare antwoorden op de proppen te laten komen. Ik wordt altijd met een kluitje in het riet gestuurd. Ik krijg altijd nutteloze en onbruikbare antwoorden.
Maar misschien heb ik gewoon te hoge verwachtingen van een "AI".
20-06-2025, 18:52 door Anoniem
We zouden met een twaalfstappenplan voor A.I.-toepassingen kunnen komen, de A.A.I.
dat net als de mens bij middelengebruik de A.I.-toepassingen ethisch en moreel kan waarborgen
ten voordele van mensheid en technologiegebruik.

Jammer dat deze methodiek voornamelijk beperkt is gebleven tot de Amerikaanse wereld.
Maar het zou ervoor kunnen zorgen dat we eerder op een hoger niveau uitkomen
dan op een nog lager plan belanden.

Het is nooit te laat, al lijkt de huidige situatie vaak hopeloos en uitzichtloos.

Valse hoop? Ik hoop van niet.
20-06-2025, 21:12 door Anoniem
Vandaag in NRC een artikel gerelateerd aan dit onderwerp: de SF visie van techbros als Musk, Bezos, Thiel, de onmogelijkheden ervan, en invloed op beleid en politiek van technologisch producten. Met verwijzingen naar andere artikelen en boeken.


https://www.nrc.nl/nieuws/2025/06/19/deze-boeken-werpen-een-ontluisterend-licht-op-de-toekomstfantasieen-van-de-tech-miljardairs-a4897564
21-06-2025, 09:05 door Anoniem
Door Anoniem: We zouden met een twaalfstappenplan voor A.I.-toepassingen kunnen komen, de A.A.I.
dat net als de mens bij middelengebruik de A.I.-toepassingen ethisch en moreel kan waarborgen
ten voordele van mensheid en technologiegebruik.

Jammer dat deze methodiek voornamelijk beperkt is gebleven tot de Amerikaanse wereld.
Maar het zou ervoor kunnen zorgen dat we eerder op een hoger niveau uitkomen
dan op een nog lager plan belanden.

Het is nooit te laat, al lijkt de huidige situatie vaak hopeloos en uitzichtloos.

Valse hoop? Ik hoop van niet.

Nieuwe techologien worden over het algemeen als eerste misbruikt (sorry: gebruikt en doorontwikkeld) door het militair industrieel complex en de sex industrie.

Ik denk niet dat die sectoren van de economie nu echt gebaat zijn met ethische remmen.

De "run to the bottom" moet nog beginnen.
Bereid je er maar vast op voor.
21-06-2025, 12:20 door Anoniem
Door Anoniem:
Door Anoniem: We zouden met een twaalfstappenplan voor A.I.-toepassingen kunnen komen, de A.A.I.
dat net als de mens bij middelengebruik de A.I.-toepassingen ethisch en moreel kan waarborgen
ten voordele van mensheid en technologiegebruik.

Jammer dat deze methodiek voornamelijk beperkt is gebleven tot de Amerikaanse wereld.
Maar het zou ervoor kunnen zorgen dat we eerder op een hoger niveau uitkomen
dan op een nog lager plan belanden.

Het is nooit te laat, al lijkt de huidige situatie vaak hopeloos en uitzichtloos.

Valse hoop? Ik hoop van niet.

Nieuwe techologien worden over het algemeen als eerste misbruikt (sorry: gebruikt en doorontwikkeld) door het militair industrieel complex en de sex industrie.

Ik denk niet dat die sectoren van de economie nu echt gebaat zijn met ethische remmen.

De "run to the bottom" moet nog beginnen.
Bereid je er maar vast op voor.

We analyseren op basis van de onderzoeksdata hoe SOA's zich voort geplant hebben en zich zo snel konden verspreiden ;)
21-06-2025, 12:23 door Anoniem
"Denial" is niet alleen maar een rivier in Egypte.
21-06-2025, 15:26 door Anoniem
Door Anoniem: "Denial" is niet alleen maar een rivier in Egypte.

D.on't
E.ven
N.oticing
I.
A.m
L.ying.

(Again, to myself, and hurting others)

Je kunt ook jezelf Gaslighten, helemaal waar. AI kan dat. Moeten we de potentiele mogelijkheden van een psychotisch AI dat narcistisch en psychpatisch is, als gevaar voor de toekomst beschouwen?

Zoek eens op chatbot Joe en Analiza. CIA ondervraging via chatbot. Gepubliceerd op foolsday 1983.

https://www.cia.gov/readingroom/document/0000619182

Of:

Stranger Than Science Fiction: The Rise of A.I. Interrogation in the Dawn of Autonomous Robots and the Need for and the Need for an Additional Protocol to the U.N. Convention Against TortureProtocol to the U.N

US heeft zich ondertussen teruggetrokken uit mensenrechtencommissie van de VN

https://scholarship.law.umn.edu/cgi/viewcontent.cgi?article=1179&context=mlr

(2017 Minnesota Law School)
21-06-2025, 19:18 door Anoniem
De verborgen agenda achter het lanceren van Artificiële Intelligentie is zeker interessant.
De echte bedoeling met e.e.a. wordt pas op termijn duidelijk.

Anoniem van 15:26 u. kaart interessante kanten aan van dit nieuwe verschijnsel.
Beste Anoniem, dank daarvoor, ook door deze reactant.

Is het een tool voor transhumanistische overgang van zelfstandig denkend mens naar onderdeel van een AI-structuur?
Worden we door A.I. gedreven en gecontroleerd, gesurveilleerd, etc.?

De tijd zal het leren. The War of AI-Bots, Good Bot versus Bad AI-Bot.
21-06-2025, 21:42 door Anoniem
Door Anoniem: De verborgen agenda achter het lanceren van Artificiële Intelligentie is zeker interessant.
De echte bedoeling met e.e.a. wordt pas op termijn duidelijk.

Anoniem van 15:26 u. kaart interessante kanten aan van dit nieuwe verschijnsel.
Beste Anoniem, dank daarvoor, ook door deze reactant.

Is het een tool voor transhumanistische overgang van zelfstandig denkend mens naar onderdeel van een AI-structuur?
Worden we door A.I. gedreven en gecontroleerd, gesurveilleerd, etc.?

De tijd zal het leren. The War of AI-Bots, Good Bot versus Bad AI-Bot.

Or just ignored AI-bots, after the newness has waned.
22-06-2025, 10:55 door Anoniem
Door Anoniem: De verborgen agenda achter het lanceren van Artificiële Intelligentie is zeker interessant.
De echte bedoeling met e.e.a. wordt pas op termijn duidelijk.

Anoniem van 15:26 u. kaart interessante kanten aan van dit nieuwe verschijnsel.
Beste Anoniem, dank daarvoor, ook door deze reactant.

Is het een tool voor transhumanistische overgang van zelfstandig denkend mens naar onderdeel van een AI-structuur?
Worden we door A.I. gedreven en gecontroleerd, gesurveilleerd, etc.?

De tijd zal het leren. The War of AI-Bots, Good Bot versus Bad AI-Bot.

Daar noem je iets, de verborgen agenda achter het lanceren van AI. Was het toevallig dat de AI en quantumcomputing gehyped werden tijdens lockdown, 'a sign of the time' of vrijgegeven omdat de grote spelers allemaal instapmodelletjes ontwikkeld hadden om in de wijde wereld los gelaten te gaan worden ook voor geinteresseerden die zelf hun individuele AI konden gaan prompten.

Als met openbare documenten 'de agenda' terug te leiden is naar de vorige wereldoorlog, of laatste revolutiegolf in Westerse wereld (Franse, Amerikaanse, Bataafse revoluties) dan was die niet verborgen, maar verstoft, genegeerd en lag klaar om ontdekt te worden.

Transhumanisme vind ik als (praktisch filosofisch) academisch verschijnsel boeiend: sci-hub (Elbakyan) die wetenschappelijke publicaties voor iedereen ontsloot, maar de ontwerpster zelf omschreef sci-hub als eenvoudige versie van Global Brain.

Yoval Noah Harari die met populair-wetenschappelijke publicaties over diverse sociaal historische onderwerpen, een nog lezend deel van de wereld verblijdt, zoals Nexus, zijn boek over historische informatienetwerken totaan AI (zijn wij hier op het forum ook, een informatienetwerk)

Freiburg mag dan als Europese bakermat van het transhumanisme beschouwd worden, maar in de VS zijn de afgelopen dertig jaar ook vergelijkbare populair wetenschappelijke boeken verschenen, die bijzonder populair waren. Heeft zijn ± wortels rond Princeton.

Het lijkt op de uitvinding van de boekdrukkunst: op hetzelfde moment, kwamen meerdere mensen op hetzelfde idee, min of meer onafhankelijk van elkaar, gevoed vanuit verschillende roots.

En het luidde geloofsoorlogen en andere maatschappelijke omwentelingen in, die met alle recht als revolutie gedefinieerd mag worden. Verzetten tegen revolutie heeft weinig zin, het zijn achterhoede gevechten op basis van iets wat was, maar nooit meer terugkomt op de manier zoals het was.

Wat voor een type zingeving (de moraal en het moreel) hier uitgaat komen, reikt verder dan een filosofische kwestie, het is iets praktisch, een vaardigheid, het zelf kunnen prompten om de werking van "Global Brain" en eigen hersenspinsels en die van anderen te doorgronden, want gebruik van AI klopt al aan de deur van de rechtspraktijk, democratie en rechtsstaat.

Is transhumanisme per definitie een kwaadaardige ontwikkeling, of kan een individu er zingeving en toekomstgerichte hoop uit putten. Laten we nog maar even hopen dat de generatie tot dertig jaar zich vooral bezig houdt met het gebruiken van AI, dan kunnen de ouderen gaan leren prompten om bij te sturen?

Toch maar even een vraag: welke AI's gebruiken lezers hier om hun AI te prompten met hun encyclopedische kennis? Wat zijn de resultaten, en houdt de AI zich aan de litteraire 3 wetten van robotica van Azimov?
22-06-2025, 12:31 door Anoniem
Door Anoniem:Toch maar even een vraag: welke AI's gebruiken lezers hier om hun AI te prompten met hun encyclopedische kennis? Wat zijn de resultaten, en houdt de AI zich aan de litteraire 3 wetten van robotica van Azimov?

Dis is meer dan 1 (een) vraag.

Maar vooruit:
1. Geen.
2. Geen resultaten, zie 1.
En nee, bij proefjes had ik niet de indruk dat het zich liet beperken door deze 3 wetten.
Wel door regeltjes die de eigenaar van de AI bedacht heeft om zich juridisch in te dekken bij mogelijke fouten of ongelukjes. Maar dat is niet hetzelfde.
Er zijn geen (grond)wetten hard ingeboud in de kern van de AI. Alleen maar regeltjes die aan en uit gezet kunnen worden, of later toegevoegd wanneer dat nodig lijkt.
22-06-2025, 13:37 door Anoniem
Door Anoniem:
Door Anoniem:Toch maar even een vraag: welke AI's gebruiken lezers hier om hun AI te prompten met hun encyclopedische kennis? Wat zijn de resultaten, en houdt de AI zich aan de litteraire 3 wetten van robotica van Azimov?

Dis is meer dan 1 (een) vraag.

Maar vooruit:
1. Geen.
2. Geen resultaten, zie 1.
En nee, bij proefjes had ik niet de indruk dat het zich liet beperken door deze 3 wetten.
Wel door regeltjes die de eigenaar van de AI bedacht heeft om zich juridisch in te dekken bij mogelijke fouten of ongelukjes. Maar dat is niet hetzelfde.
Er zijn geen (grond)wetten hard ingeboud in de kern van de AI. Alleen maar regeltjes die aan en uit gezet kunnen worden, of later toegevoegd wanneer dat nodig lijkt.

Dank voor het uitsplitsen van mijn deelvragen. Je hebt wel geexperimenteerd, met welke en hoelang?

Ik neig er zelf naar om iets van de Google services te gaan experimenteren en Facebook gewoon te gaan voeden met foto's die ik in de buurt en van mijn beeldscherm kan maken, met one-liner onderschriften. Ik kan ze niet in mijn eentje verslaan, maar ben benieuwd wat hun AI oppikt van mijn stille protesten.

Ik zoek een AI dat ik kan voeden met grotere hoeveelheden door mij zelf geannoteerde beeld, tekst, geluid en video bestanden en geen problemen heeft met Nederlands en Engels op wetenschappelijk niveau.

Ik denkt dat ik in de grote clouds van de Amerikaanse bedrijven dit het makkelijkst kan doen, aangezien nog geen Europeaan zich gemeld heeft om deze te vervangen in een building from scratch.
22-06-2025, 13:37 door Anoniem
Maar moet de docent de A.I. niet eerder een cijfer geven?
als de student zijn essay door A.I. laat opstellen?

A.I. onderdrukt zelfredzaamheid en veroorzaakt meer B.O.
(bijzondere omstandigheden als dyslexie etc.).
22-06-2025, 15:14 door Anoniem
Door Anoniem: Daar noem je iets, de verborgen agenda achter het lanceren van AI. Was het toevallig dat de AI en quantumcomputing gehyped werden tijdens lockdown, 'a sign of the time' of vrijgegeven omdat de grote spelers allemaal instapmodelletjes ontwikkeld hadden om in de wijde wereld los gelaten te gaan worden ook voor geinteresseerden die zelf hun individuele AI konden gaan prompten.
Maak het allemaal niet te magisch. Men heeft een echte doorbraak gehad in LLM/GPT-achtige systemen, waardoor men opeens dingen voor elkaar kreeg die veel verder gaan dan wat men daarvoor voor elkaar kreeg, en de spelers, inclusief alle techreuzen, zijn over elkaar heen gaan struikelen om in de markt die ze erin zien een zo groot mogelijk aandeel te veroveren.

Waar je aan kan zien dat men er helemaal niet zo superdoordacht mee omgaat is dat men in een hoog tempo bezig is het eigen nest te bevuilen. Men heeft indrukwekkend veel data nodig om die systemen mee te trainen, maar door hoe men te werk gaat wordt in een hoog tempo de uitvoer van die systemen toegevoegd aan waar ze trainingsdata oogsten, waardoor die systemen steeds meer op hun eigen uitvoer getraind worden.

Waarom werkt dat niet? Omdat wat LLM's produceren in wezen een herschikking is van wat je erin stopt. Een verbijsterend knappe herschikking, maar het bevat geen nieuwe kennis. Wat er nieuw uitziet is het op andere manieren aan elkaar knopen van wat er al in was gestopt, door een systeem dat in wezen razend knappe statistische trucjes uithaalt maar ondertussen helemaal niets begrijpt van de inhoud. Daarom produceren LLM's fouten die heel overtuigend overkomen maar die nergens op slaan, de hallucinaties. Dus wat vanuit die LLM's als trainingsmateriaal voor LLM's wordt toegevoegd bevat geen nieuwe kennis maar wel die hallucinaties, dus dingen die er overtuigend uitzien maar niet kloppen. Dat betekent dat een steeds groter percentage van het trainingsmateriaal fouten bevat. En dat komt ook tot uiting. Van wat de laatste GPT-versie produceert is al iets van 30% onzin, en dat is schrikbarend veel meer dan het eerder was. Onzin eruit filteren wordt daardoor ook steeds moeilijker.

Wat je daar ziet is geen doorwrochte aanpak van grote spelers die al precies hebben uitgestippeld waar ze het heen sturen, dat is move fast and break things, snel en ondoordacht, want anders heeft iemand anders die snel en ondoordacht te werk gaat dat marktaandeel al veroverd. Ze creëren zo makkelijk een puinhoop. Het zou heel goed kunnen dat dit soort systemen alweer over hun top heen zijn, als ze er niet in slagen om de vervuiling te corrigeren. Maar misschien zou daar wel een volgende grote doorbraak voor nodig zijn, en grote doorbraken zijn uiterst zeldzaam, die heb je niet op afroep.

Ik kan niet in de toekomst kijken, dus zeker weet ik niks, maar dat is het beeld dat ik heb van wat ik zie gebeuren.

Toch maar even een vraag: welke AI's gebruiken lezers hier om hun AI te prompten met hun encyclopedische kennis? Wat zijn de resultaten, en houdt de AI zich aan de litteraire 3 wetten van robotica van Azimov?
Ik ben het niet gaan gebruiken, deels omdat ik niet overzie wat ze met de data doen die je ingeeft, en ik geef om mijn privacy, maar ook omdat ik ervoor kies om zelf na te blijven denken. Daar moet ik wat voor uitleggen.

Wat achtergrond. Ik ben in de jaren '80 de automatisering in gerold en kwam in een mainframe-omgeving uit, toen nog zo'n fysiek reusachtig computersysteem dat met alle randapparatuur erbij een forse zaal vulde. Ik kwam tussen mensen terecht die niet eens lang daarvoor het ponskaartentijdperk nog hadden meegemaakt. Dat betekende dat je als programmeur geen terminal op je bureau had staan, maar je programma op formulieren voor de ponskamer schreef, waar het over werd getypt op ponskaaren, en die gingen dan naar de computerzaal waar ze via een ponskaartlezer aan de compiler werden aangeboden. Uitermate omslachtig en tijdrovend dus. Dat heb ik dus niet meegemaakt, ik kon meteen met een terminal werken en zelf compilatie- en testjobs starten. Maar omdat dat ponskaartentijdperk nog niet lang geleden was kwam ik daar in een bedrijfscultuur terecht waarin je uiterst nauwgezet zelf controleerde of er geen syntax- en logicafouten in je programma zaten, op papier dus, voordat je dingen een, vergeleken met nu, nog steeds langdurige verwerking in stuurde waarin het doodzonde was als het op een kleinigheid stuk liep. Later werd het nog interactiever en kon je met een druk op een functietoets een compiler je programma laten checken, en laten compileren, direct vanuit de editor waarin je de broncode bewerkte, het ging dus steeds makkelijker en vlotter.

Waar ik naar toe wil is dat ook af en toe dingen waren die juist moeizamer bleken te gaan. Want van zo'n druk op de knop word je lui in je nadenken, een machine doet van alles waarvoor je eerst je hoofd moest gebruiken. Dat was een groot deel van de tijd goed voor de productiviteit, maar ik ondervond dat ik en anderen sluipenderwijs steeds meer in een soort trial-and-error-modus gingen werken, gewoon proberen tot het klopt, in plaats van er zo diepgaand over na te denken als we eerst deden. En als je dan een keer tegen een probleem aanliep dat echt lastig was, wat je alleen opgelost kreeg door echt diep en goed na te denken, dan merkte je dat je eerst een tijdje doelloos die trial-and-error-modus probeerde, omdat dat je automatisme was geworden, en dat overschakelen op dat ouderwetse diepe nadenken waar je veel minder vaak in zat echt even omschakelen was, dat ging niet meer zo vanzelf als eerst. Kennelijk is dat net als fysieke conditie ook iets dat voortdurend getraind en bijgehouden moet worden. Daar ben ik me altijd bewust van gebleven, ik ben bewust wel blijven nadenken, en daarom ben ik niet zo kapot van AI en andere vergaande "laat mij dit maar voor je doen"-systemen.

Mensen zijn natuurlijk al sinds de uitvinding van de vuistbijl bezig om zichzelf werk te besparen met hulpmiddelen, die steeds geavanceerder zijn geworden. Zo bezien is AI daar gewoon een volgende stap in. Maar we zijn nu op een punt aangekomen waarin niet alleen je fysieke conditie makkelijk kan lijden onder te weinig inspanning, maar ook je denkvermogen, je mentale conditie. Willen we dat? Willen we omdat het cool, leuk, makkelijk is dommer worden? Ik niet, ik wil zelf scherp blijven, en dus zelf mijn nadenken blijven doen.

Een recente studie van MIT suggereert dat AI inderdaad het vermogen tot kritisch denken en het leervermogen aantast. Geen grote studie, de prestaties van slechts 54 mensen werden onderzocht, en een peer-review heeft nog niet plaatsgevonden, maar het sluit aan bij wat ik denk:
https://time.com/7295195/ai-chatgpt-google-learning-school/
https://arxiv.org/abs/2506.08872
22-06-2025, 17:59 door Anoniem
@15:14

Ik ben niet degene die het magisch maakt, de tijd van terminals, ponskaarten en introductie van windows op de werkvloer heb ik ook meegemaakt. Leuk, die herkenbaarheid, al heb ik een andere professionele afslag genomen.

Workflow praktisch moet toch mogelijk zijn voor meerdere vakgebieden, niet alleen het juridische.

Ik kijk bijvoorbeeld verlekkerd naar dergelijk AI:

https://www.harvey.ai/

Helemaal van deze tijd, en alleen te prompten door verstand van zaken mensen.

Omdat ik zelf niet "The Patsy" wil worden van mensen die uit het MIT onderzoek naar voren komen als mensen met andere verstandelijke vermogens van denken, maar ook niet door mensen die door Harveyachtig-gebruik op voorsprong op mij staan, en ik meen dat velen het met mij eens kunnen zijn.

AI-gebruik het tast benul van het hebben van parate ervaringskennis op gruwelijke wijze aan, en dat voorspelt weinig goeds voor de toekomst. Maar proffessioneel AI zet je als eenpitter ook op achterstand bij de grotere kantoren die gewoon meer promptende handen hebben en zo samenspannen weg te duwen.

Ik wil niet voorbij gestreefd worden door jongeren die nog maar aan het begin van hun opleiding staan, en ik alleen met heel veel moeite kan volgen, maar ook niet door de kaptiaalkrachtige grote jongens en meisjes.

En al helemaal niet door jonge proffessionals die wel met professioneel AI werken, maar mi de juiste ethische houding ontbreekt om het uberhaupt te mogen gebruiken.

Wat mij betreft voor hun AI-diploma gezakt zijn, en er niet mee de electronische snelweg op mogen, om maar zo te zeggen, omdat hun mindset basisvereisten ontbreekt om er toekomstbestendig mee te kunnen werken.

Ik heb wel eens van die LLM-AI modellen in actie gezien, die werkten als censor en jargonvraatmachine om te selecteren en zette de microfoon van de telefoon wijd open. Interpreteerde verbluffend goed Nederlands, zelfs met creatieve kwinkslagen, maar wel met eh, "jargon gebonden taal" laten we maar zeggen.

Misschien dat jij dat hallucinaties noemt, ik kon ze plaatsen en waren zelden missers binnen hetgeen het AI-LLM doelgericht nastreefde.
22-06-2025, 18:45 door Anoniem
Door Anoniem:Mensen zijn natuurlijk al sinds de uitvinding van de vuistbijl bezig om zichzelf werk te besparen met hulpmiddelen, die steeds geavanceerder zijn geworden. Zo bezien is AI daar gewoon een volgende stap in. Maar we zijn nu op een punt aangekomen waarin niet alleen je fysieke conditie makkelijk kan lijden onder te weinig inspanning, maar ook je denkvermogen, je mentale conditie. Willen we dat? Willen we omdat het cool, leuk, makkelijk is dommer worden? Ik niet, ik wil zelf scherp blijven, en dus zelf mijn nadenken blijven doen.

Een recente studie van MIT suggereert dat AI inderdaad het vermogen tot kritisch denken en het leervermogen aantast. Geen grote studie, de prestaties van slechts 54 mensen werden onderzocht, en een peer-review heeft nog niet plaatsgevonden, maar het sluit aan bij wat ik denk:
https://time.com/7295195/ai-chatgpt-google-learning-school/
https://arxiv.org/abs/2506.08872

:-)
Mee eens. (met je hele betoog)

Ik ben ook nog zo'n dino, die nog geleerd heeft zelf dingen door te denken, ipv apparaten of AI dit voor me te laten doen.

Helaas hebben we geen AI nodig om dat kritische denken en leervermogen aan te tasten. Dat gebeurde eerder ook al.
Kijk maar naar de "grote leider" in het Witte Huis. Een knipperlicht, dan leeft van chaos.


Ik kwam laatst dit tegen (een mogelijke toekomst van AI):

https://youtu.be/xZdbPTZQDrs
23-06-2025, 06:00 door Anoniem
Werkt het als telraam of rekenlineaal?
23-06-2025, 06:49 door Anoniem
Door Anoniem: Ik kijk bijvoorbeeld verlekkerd naar dergelijk AI:

https://www.harvey.ai/

Helemaal van deze tijd, en alleen te prompten door verstand van zaken mensen.
Je hebt het misschien niet door, maar er zijn in de VS al meerdere keren advocaten door rechters op hun vingers getikt omdat in hun door AI gegenereerde teksten, ongetwijfeld met verstand van zaken geprompt, verwijzingen stonden naar eerdere zaken die in het geheel niet bleken te bestaan.

Ik wil niet voorbij gestreefd worden door jongeren die nog maar aan het begin van hun opleiding staan, en ik alleen met heel veel moeite kan volgen, maar ook niet door de kaptiaalkrachtige grote jongens en meisjes.
Ja, en dat is de makke van hoe we, extreem op competitie gericht, het kind met het badwater weg dreigen te gooien. Nooit helemaal, er blijven mensen die wel zelf nadenken, maar het is geen goede zaak als we van een samenleving waar veel mensen zelf nadenken gaan naar een samenleving waar nog maar een enkeling dat goed doet. Dan krijg je makkelijk extreme elite-vorming en extreme ongelijkheid. Wat dat betreft vind ik de effecten van social media en smartphones ook al lang zorgwekkend, die stimuleren mensen tot snel en oppervlakkig denken, omdat dat meer interacties en meer reclame-inkomsten op levert.

En al helemaal niet door jonge proffessionals die wel met professioneel AI werken, maar mi de juiste ethische houding ontbreekt om het uberhaupt te mogen gebruiken.

Wat mij betreft voor hun AI-diploma gezakt zijn, en er niet mee de electronische snelweg op mogen, om maar zo te zeggen, omdat hun mindset basisvereisten ontbreekt om er toekomstbestendig mee te kunnen werken.
En hoe moet je precies geschoold worden in die ethische houding en die basisvereisten als een computer het denkwerk voor je doet? Of lijkt te doen? Dat is precies hoe die afstomping in zijn werk gaat.

Ik heb wel eens van die LLM-AI modellen in actie gezien, die werkten als censor en jargonvraatmachine om te selecteren en zette de microfoon van de telefoon wijd open. Interpreteerde verbluffend goed Nederlands, zelfs met creatieve kwinkslagen, maar wel met eh, "jargon gebonden taal" laten we maar zeggen.
Ja, en daardoor komt zo'n systeem indrukwekkend intelligent over terwijl het dat feitelijk totaal niet is. Probeer je eens een klein beetje te verdiepen in hoe LLM's eigenlijk werken. Er zit werkelijk nul begrip van de inhoud in, het is in wezen een extreem geavanceerde set trucs op het gebied van patroonherkenning en statistiek om uit een verzameling taal nieuwe taal te produceren die indrukwekkend echt lijkt. Extreem geavanceerd, maar nog steeds trucs, zonder enig inhoudelijk begrip van waar die teksten over gaan.

Misschien dat jij dat hallucinaties noemt, ik kon ze plaatsen en waren zelden missers binnen hetgeen het AI-LLM doelgericht nastreefde.
Die referenties aan niet bestaande zaken die ik noemde zijn voorbeelden van dergelijke hallucinaties. Dat voor dat soort dingen de term "hallucinaties" wordt gebruikt heb ik niet bedacht, dat komt uit de koker van de ontwikkelaars van dergelijke systemen zelf. Het is een gevolg van dat die systemen niet vanuit begrip maar vanuit statistisch goochelen met woorden werken, daar komt af en toe onzin uit, en dat is onvermijdelijk.

Ik gaf al aan dat als je het resultaat weer als trainingsdata gaat gebruiken dat die "hallucinaties" dan toenemen. Denk niet dat die ongewenste feedback er niet zal zijn bij zo'n specialistisch systeem als het juridische systeem dat je noemt. Ga maar na: in de VS zijn advocaten al betrapt op referenties aan niet bestaande zaken, als jurisprudentie. Je kan er gif op innemen dat er ook wel het nodige doorheen slipt, dat een rechter of de tegenpartij het niet opmerkt. Dat kan tot een andere uitspraak leiden dan wanneer de fout wel was opgemerkt. Die uitspraak wordt dan deel van de jurisprudentie die volgende zaken beïnvloeden, en de juridische AI-systemen worden ermee getraind. Het zal lang niet zo snel uit de klauwen lopen als wanneer ze Twitter/X of Reddit als bron nemen, maar het effect dat de AI zijn eigen nest bevuilt en dat de resultaten dan slechter worden is er wel degelijk, de fouten worden immers bronnen voor de AI. Mensen zijn ook verre van perfect, natuurlijk, maar als mensen het werk doen wordt er wel nog inhoudelijk nagedacht. En het vermogen tot inhoudelijk nadenken wil je getraind houden, en dat doe je niet door het zo min mogelijk te doen.

Voor je loopbaan kan het zijn dat je moeilijk anders kan dan meegaan met de stroom. Maar maak niet de fout om, als je die keuze maakt, te denken dat het daarmee in alle opzichten de juiste keuze is, omdat je dat ongemakkelijke "maar eigenlijk gaat dit niet goed" liever uit de weg gaat. Blijf kritisch. En ik vraag me af of je kritisch genoeg bent als ik zie hoe je op die LLM's reageert die je in werking hebt gezien. Ja, die zijn ongetwijfeld verbijsterend indrukwekkend, maar laat goed tot je doordringen dat ze niet verbijsterend indrukwekkend zijn door een verbijsterend begrip van de materie maar door verbijsterend indrukwekkend woorden rijgen, en dat aan zo'n benadering inherent is dat ze flagrant de fout in kunnen gaan op een manier die verbijsterend overtuigend overkomt. Dat is een enorme valkuil, en hoe wapen je je daartegen als je er zo van onder de indruk bent? Blijf kritisch, blijf bewust voldoende sceptisch om kritisch te kunnen zijn.
23-06-2025, 06:57 door Anoniem
Door Anoniem: Helaas hebben we geen AI nodig om dat kritische denken en leervermogen aan te tasten. Dat gebeurde eerder ook al.
Kijk maar naar de "grote leider" in het Witte Huis. Een knipperlicht, dan leeft van chaos.
Mee eens, die zou toen ik jong was volstrekt kansloos zijn geweest. Maar een volgende schep erbovenop is wel degelijk zorgelijk.

Ik kwam laatst dit tegen (een mogelijke toekomst van AI):

https://youtu.be/xZdbPTZQDrs
:-)
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.