Door Anoniem: Daar noem je iets, de verborgen agenda achter het lanceren van AI. Was het toevallig dat de AI en quantumcomputing gehyped werden tijdens lockdown, 'a sign of the time' of vrijgegeven omdat de grote spelers allemaal instapmodelletjes ontwikkeld hadden om in de wijde wereld los gelaten te gaan worden ook voor geinteresseerden die zelf hun individuele AI konden gaan prompten.
Maak het allemaal niet te magisch. Men heeft een echte doorbraak gehad in LLM/GPT-achtige systemen, waardoor men opeens dingen voor elkaar kreeg die veel verder gaan dan wat men daarvoor voor elkaar kreeg, en de spelers, inclusief alle techreuzen, zijn over elkaar heen gaan struikelen om in de markt die ze erin zien een zo groot mogelijk aandeel te veroveren.
Waar je aan kan zien dat men er helemaal niet zo superdoordacht mee omgaat is dat men in een hoog tempo bezig is het eigen nest te bevuilen. Men heeft indrukwekkend veel data nodig om die systemen mee te trainen, maar door hoe men te werk gaat wordt in een hoog tempo de
uitvoer van die systemen toegevoegd aan waar ze trainingsdata oogsten, waardoor die systemen steeds meer op hun eigen uitvoer getraind worden.
Waarom werkt dat niet? Omdat wat LLM's produceren in wezen een herschikking is van wat je erin stopt. Een verbijsterend knappe herschikking, maar het bevat geen nieuwe kennis. Wat er nieuw uitziet is het op andere manieren aan elkaar knopen van wat er al in was gestopt, door een systeem dat in wezen razend knappe statistische trucjes uithaalt maar ondertussen helemaal niets begrijpt van de inhoud. Daarom produceren LLM's fouten die heel overtuigend overkomen maar die nergens op slaan, de hallucinaties. Dus wat vanuit die LLM's als trainingsmateriaal voor LLM's wordt toegevoegd bevat
geen nieuwe kennis maar
wel die hallucinaties, dus dingen die er overtuigend uitzien maar niet kloppen. Dat betekent dat een steeds groter percentage van het trainingsmateriaal fouten bevat. En dat komt ook tot uiting. Van wat de laatste GPT-versie produceert is al iets van 30% onzin, en dat is schrikbarend veel meer dan het eerder was. Onzin eruit filteren wordt daardoor ook steeds moeilijker.
Wat je daar ziet is geen doorwrochte aanpak van grote spelers die al precies hebben uitgestippeld waar ze het heen sturen, dat is
move fast and break things, snel en ondoordacht, want anders heeft iemand anders die snel en ondoordacht te werk gaat dat marktaandeel al veroverd. Ze creëren zo makkelijk een puinhoop. Het zou heel goed kunnen dat dit soort systemen alweer over hun top heen zijn, als ze er niet in slagen om de vervuiling te corrigeren. Maar misschien zou daar wel een volgende grote doorbraak voor nodig zijn, en grote doorbraken zijn uiterst zeldzaam, die heb je niet op afroep.
Ik kan niet in de toekomst kijken, dus zeker weet ik niks, maar dat is het beeld dat ik heb van wat ik zie gebeuren.
Toch maar even een vraag: welke AI's gebruiken lezers hier om hun AI te prompten met hun encyclopedische kennis? Wat zijn de resultaten, en houdt de AI zich aan de litteraire 3 wetten van robotica van Azimov?
Ik ben het niet gaan gebruiken, deels omdat ik niet overzie wat ze met de data doen die je ingeeft, en ik geef om mijn privacy, maar ook omdat ik ervoor kies om zelf na te blijven denken. Daar moet ik wat voor uitleggen.
Wat achtergrond. Ik ben in de jaren '80 de automatisering in gerold en kwam in een mainframe-omgeving uit, toen nog zo'n fysiek reusachtig computersysteem dat met alle randapparatuur erbij een forse zaal vulde. Ik kwam tussen mensen terecht die niet eens lang daarvoor het ponskaartentijdperk nog hadden meegemaakt. Dat betekende dat je als programmeur geen terminal op je bureau had staan, maar je programma op formulieren voor de ponskamer schreef, waar het over werd getypt op ponskaaren, en die gingen dan naar de computerzaal waar ze via een ponskaartlezer aan de compiler werden aangeboden. Uitermate omslachtig en tijdrovend dus. Dat heb ik dus niet meegemaakt, ik kon meteen met een terminal werken en zelf compilatie- en testjobs starten. Maar omdat dat ponskaartentijdperk nog niet lang geleden was kwam ik daar in een bedrijfscultuur terecht waarin je uiterst nauwgezet
zelf controleerde of er geen syntax- en logicafouten in je programma zaten, op papier dus, voordat je dingen een, vergeleken met nu, nog steeds langdurige verwerking in stuurde waarin het doodzonde was als het op een kleinigheid stuk liep. Later werd het nog interactiever en kon je met een druk op een functietoets een compiler je programma laten checken, en laten compileren, direct vanuit de editor waarin je de broncode bewerkte, het ging dus steeds makkelijker en vlotter.
Waar ik naar toe wil is dat ook af en toe dingen waren die juist moeizamer bleken te gaan. Want van zo'n druk op de knop word je lui in je nadenken, een machine doet van alles waarvoor je eerst je hoofd moest gebruiken. Dat was een groot deel van de tijd goed voor de productiviteit, maar ik ondervond dat ik en anderen sluipenderwijs steeds meer in een soort trial-and-error-modus gingen werken, gewoon proberen tot het klopt, in plaats van er zo diepgaand over na te denken als we eerst deden. En als je dan een keer tegen een probleem aanliep dat echt lastig was, wat je alleen opgelost kreeg door echt diep en goed na te denken, dan merkte je dat je eerst een tijdje doelloos die trial-and-error-modus probeerde, omdat dat je automatisme was geworden, en dat overschakelen op dat ouderwetse diepe nadenken waar je veel minder vaak in zat echt even omschakelen was, dat ging niet meer zo vanzelf als eerst. Kennelijk is dat net als fysieke conditie ook iets dat voortdurend getraind en bijgehouden moet worden. Daar ben ik me altijd bewust van gebleven, ik ben bewust wel blijven nadenken, en daarom ben ik niet zo kapot van AI en andere vergaande "laat mij dit maar voor je doen"-systemen.
Mensen zijn natuurlijk al sinds de uitvinding van de vuistbijl bezig om zichzelf werk te besparen met hulpmiddelen, die steeds geavanceerder zijn geworden. Zo bezien is AI daar gewoon een volgende stap in. Maar we zijn nu op een punt aangekomen waarin niet alleen je fysieke conditie makkelijk kan lijden onder te weinig inspanning, maar ook je denkvermogen, je mentale conditie. Willen we dat? Willen we omdat het cool, leuk, makkelijk is
dommer worden? Ik niet, ik wil zelf scherp blijven, en dus zelf mijn nadenken blijven doen.
Een recente studie van MIT suggereert dat AI inderdaad het vermogen tot kritisch denken en het leervermogen aantast. Geen grote studie, de prestaties van slechts 54 mensen werden onderzocht, en een peer-review heeft nog niet plaatsgevonden, maar het sluit aan bij wat ik denk:
https://time.com/7295195/ai-chatgpt-google-learning-school/https://arxiv.org/abs/2506.08872