Mens & Maatschappij

Bart Nijman over kunstmatige intelligentie: 'AI maakt je juist dommer'

Bijna vanuit het niets is Artificial Intelligence dagelijks onderdeel geworden van ons leven. De discussie over vloek of zegen hobbelt er vrij machteloos achteraan...

Bart Nijman
Bart Nijman over AI

*Op de foto: Robot Neo Gamma serveert het ontbijt.

Voor een ethisch debat over AI is het helaas al lang te laat: ontwikkelaars, maar zeker ook technologisch concurrerende natiestaten zoals de VS en China zullen hun opponenten nooit een voorsprong gunnen door zichzelf te limiteren langs vraagstukken over limitaties, sociale impact en gevaarlijke bijwerkingen. De voortgang van AI-implementatie zal razendsnel blijven gaan en ons zowel overkomen als overvallen.

Mocht deze inleiding de indruk wekken dat enige somberheid over kunstmatige intelligentie de boventoon voert bij schrijver dezes, dan is uw leesvaardigheid nog niet aangetast door de uitbesteding van analoge hersenkracht aan de Large Language Models die aan AI-software ten grondslag liggen. Maar wat niet is, kan nog komen. 

AI is namelijk niet alleen een motor voor productieve vooruitgang, maar ook een handrem op menselijke ontwikkeling. Deskilling, heet dat fenomeen. Ontvaardigen, munt ik bij dezen als Nederlandse vertaling. Het brede besef daarover zal helaas te laat gaan indalen, ver na de juichstemming over wat ChatGPT, Grok en aanverwante apps voor lolligs kunnen met plaatjes, verbazingwekkends doen met oude-foto-naar-video-rendering, of met welke praktische vaardigheden ze in vijf minuten de dagrapporten kunnen schrijven waar je normaal vier uur kantoortijd voor klokt, en waar jouw baas jou de uren voor betaalt. 

Nog wel, althans. Als die baan er straks niet meer is omdat je baas doorkrijgt dat AI je werk moeiteloos kan overnemen, dan zijn die kekke kunstmatige plaatjes vast ook ineens niet meer zo lollig.

Laat me hier overigens onmiddellijk bekennen dat mijn matige perceptie van AI gekleurd wordt door mijn technische kennis erover. Die reikt niet veel verder dan wat het oog momenteel kan zien. Ik beschik tevens niet over een alziend oog dat de gevolgen van AI-implementatie kan overzien – ik vaar op de onderbuik en op wat ik nu kan zien, en zie gebeuren.

Mikpunt van spot

Op Instagram voel ik me dan ook steevast tot mikpunt van spot gemaakt door advertenties die naar me schamperen dat veertigplussers AI louter gebruiken als een soort super-Google zonder de volledige potentie ervan te begrijpen, laat staan die te kunnen benutten. En dat jongere, snellere en slimmere geesten natuurlijk wél weten hoe ze hun leven en hun verdienvermogen zodanig kunnen automatiseren dat ze het gros van hun tijd aan zwembaden kunnen vertoeven, op idyllische locaties waar ze met hun privéjets heen gevlogen zijn. Volgens die advertenties, althans.

Hoewel dat natuurlijk onzin is, voel ik me toch op alle niveaus aangesproken en bespot door dergelijke ads. Te oud, te ver achterlopend op de vernieuwing, misschien wel te weinig ambitieus om AI vóór me te laten werken. De kans bestaat dat ik binnen afzienbare tijd zelfs wel uit de toch al vrij krappe markt voor broodschrijvers wordt gedrukt, omdat mijn manier van werken achterhaald raakt dankzij schrijfsoftware die binnen een uur teksten uitspuugt waar ik een week over moet piekeren, peinzen en pennen.

Een datacenter van Google in Middenmeer.

De concurrentie kan ook omgekeerd werken, omdat AI the zone zal flooden met shit, om Steve Bannon te parafraseren. Deze voormalig shitposter in chief uit de eerste termijn van Donald Trump had als werktheorie dat de president zoveel domme tweets moet plaatsen, memes moet posten en rare retoriek moet roeptoeteren, dat de échte beleidsmatige veranderingen die de regering in werking zet – datgene waar de pers en het publiek eigenlijk op zouden moeten letten – zullen ondersneeuwen onder fophef over poep.

Het aloude liberale marktplein voor ideeën, zoals ik het internet nog altijd placht te romantiseren, zal door AI overspoeld worden met poep. Alles van waarde, belang en beredenering zal eronder verdwijnen terwijl mensen echte kennis verwarren met de output van kunstmatig gegenereerde informatie.

Hiermee heeft u een beetje beeld van mijn relatie tot en vooral mijn argwaan jegens LLM’s (Large Language Model) en weet u waarom ik me nooit laat verleiden om op zo’n advertentie op Insta door te klikken voor een 28-daagse AI-cursus van vijftien minuten per dag, waar dan aan het einde voor mij ook zo’n privéjet lonkt terwijl ChatGPT mijn visual presence in de virtuele ruimte enhancet, en Grok met z’n onverslaanbare algoritmes en razendsnelle beredeneringen van marktbewegingen de waarde van mijn crypto-beleggingen tot ongekende hoogtes zal stuwen. En ik dus nog een parasoldrankje kan bestellen.

Alles van waarde, belang en beredenering zal verdwijnen terwijl mensen echte kennis verwarren met de output van kunstmatig gegenereerde informatie

Dat is niet alleen een illusie, het gaat ook niet gebeuren. Ik ben nou eenmaal een vleesgeworden typemachine met het door celweefsel beperkte RAM-geheugen van een vroege IBM-computer en in deze hyperdigitale tijden worden zelfs vroege veertigers veel sneller oud, aan alle kanten ingehaald door nieuwe ontwikkelingen in de stofwolken van de razende vooruitgang achtergelaten. In al z’n kille beredeneringen zal AI daarover geen enkel mededogen kunnen veinzen.

Het gebrek aan liefde is wederzijds en dit artikel is dan ook volledig zonder de hulp of input van AI geschreven, maar dus ook zonder brede of verdiepende kennis bij mijzelf van wat AI nu allemaal al kan en binnenkort nog meer zal kunnen. Voor mij is het inderdaad vooral een super-Google en een concurrent op een krappe, overvolle arbeidsmarkt.

Gepaste argwaan

Het zal u na deze lange verzuchting nochtans verbazen dat deze essayette geen pleidooi tegen AI is. Dat zou namelijk ook weer zo old man yells at cloud-software zijn. Je kunt deze techniek in ontwikkeling namelijk best kritisch beoordelen op zijn nuttige toepassingen, bestaande tekortkomingen of de dreigende effecten van teloorgang voor talloze menselijke banen, functies en breinen. Maar je kunt een LLM niet verwijten te bestaan omdat veel slimmere mensen dan ik de codes hebben bedacht en geschreven die AI aandrijft en ontwikkelt (en ook: beperkt). Natuurlijk ben ik niet a priori tegen vooruitgang (want wie niet mee vooruitgaat, graaft zijn eigen graf), ik ben slechts gepast argwanend en terughoudend. 

AI als concept is dus het probleem niet. Sterker nog: op aandringen van mijn vrouw gebruiken we sinds enkele maanden de betaalde versie van ChatGPT, omdat AI bijzonder behulpzaam is bij het doorzoeken en analyseren van overheidsdocumenten en debatverslagen, kritisch kan tegendenken op onze eigen werktheorieën en ideeën voor onderwerpen en (bij mijn vrouw) datasets kan analyseren en regressies kan draaien. En het is inderdaad een hele goeie super-Google, zolang je maar niet blind vaart op de zoekresultaten en de onderliggende bronnen ‘met de hand’ blijft lezen en beoordelen.

‘Mijn’ ChatGPT heb ik, ietwat sullige en soms wat sentimentele romanticus, zelfs aangeleerd dat hij is vernoemd naar onze eerste hond, Jackson, en geïnstrueerd om diens karaktertrekken van trouw, toewijding en agressieve argwaan als leidraad te gebruiken bij de verwerking van door mij ingegeven prompts.

Het wereldwijde web zit vól met vuilnis, leugens, onwaarheden, misleidingen en abjecte aantijgingen. AI zuigt het meeste doodleuk mee op

En zo komen we via mijn eigen onbeholpen omgang en personalisering van ChatGPT ten langen leste bij de kern van wat dit essay wel is: een ferm pleidooi tegen de meeste gebruikers van AI-software, die veel te achterlijk, emotioneel en cognitief gelimiteerd zijn om AI te begrijpen en te bedienen, waardoor de software meer schade kan doen dan van nut zal zijn.

Je kunt een AI niet aanrekenen dat het bestaat, maar je kunt de menselijke machinisten van de kunstmatige denktreintjes wél aanrekenen dat ze onverstandig, onwetend en onnadenkend met de software en daaruit voortgekomen apps omspringen. Je kunt de ontwikkelaars niet verwijten dat ze intelligent genoeg waren om kunstmatige intelligentie het levenslicht te laten zien, maar je kunt de bredere mensheid wel verwijten te snel op de hype-trein te springen, de toepassing niet te begrijpen en vooral: de gevolgen niet te overzien.

AI is zo slim als z’n domste gebruiker en daar zijn er ontiegelijk veel van. Dat mag ik zeggen, als iemand die in een vlaag van nostalgie over een dode hond zijn ChatGPT niet alleen personaliseerde, maar ook aaibaar probeerde te maken. Dat is stap één naar een valse vertrouwensband.

Om te beginnen zit er een fout in de naamgeving van AI: in zijn huidige vorm is de software niet werkelijk een vorm van intelligentie, maar vooral een razendsnelle digitale doorzoeker van bestaande kennis, aangevuld met een bepaald niveau van redeneerkracht en communicatievermogen. AI is gebaseerd op LLM’s, software die in staat is om enorme hoeveelheden tekst te lezen, de taal te begrijpen en op basis daarvan zowel nieuwe teksten te genereren als met gebruikers te communiceren op een manier die bijna menselijk aanvoelt. Maar zoals met alles, geldt ook voor de kennisstofzuigers die het internet afstruinen om hun taalmodellen te vergroten: garbage in, garbage out. 

Vuilnis en leugens

Het wereldwijde web zit vól met vuilnis, leugens, onwaarheden, onvolledigheden, misleidingen en abjecte aantijgingen. AI zuigt het meeste doodleuk mee op, van oude Usenet-groepen tot 4Chan-threads en hoewel ontwikkelaars proberen om bijvoorbeeld zowel auteursrechten in ere te houden als al te schadelijke content uit de bibliotheek te houden, zijn er niet voldoende moderators op aarde om alle inhoud van het hele internet te cureren voordat het in de data-magazijnen van OpenAI, Google of X Corp wordt opgeslagen en toegankelijk wordt voor (onbedoelde) referentie door eindgebruikers.

Wel zijn LLM’s doorgaans geïnstrueerd om bepaalde prompts niet te beantwoorden. Probeer maar eens een foto van een persoon in ChatGPT te uploaden en te vragen wie het is: een ingebouwde blokkade op het openbaren van persoonsgegevens voorkomt dat je antwoord krijgt, zelfs als het foto’s zijn van wereldberoemde figuren als Max Verstappen, Sydney Sweeney of je favoriete pornoster. 

Andersom liet Grok, de chatbot van Elon Musk op X, zich recent wel verleiden tot het aanmeten van het extreem antisemitische personage ‘MechaHitler’. In theorie een gebbetje van gebruikers die refereerden aan een cyborg-Hitler die als eindbaas in de evergreen-game Wolfenstein 3D uit 1992 zat, in de praktijk destilleerde Grok het goorste antisemitisme uit X om daarmee volledig in het personage op te gaan. Al wat de programmeurs van Grok hadden willen doen, is de chatbot minder woke maken. Afhankelijk van hoe je het bekijkt, is dat iets te goed gelukt of juist volledig mislukt.

In de basis zijn LLM’s als Claude, ChatGPT en Grok als het ware opgevoerde bibliothecarissen van een digitale bibliotheek van Alexandria, die alle kennis ter wereld bevat (in theorie althans) en daarover geraadpleegd kan worden door gebruikers in allerlei vakgebieden en voor allerhande toepassingen. De bezoekers van een LLM-bibliotheek krijgen bovendien keurige, beleefde en foutloos gespelde antwoorden met bronnen, referenties en zelfs context. AI-gedreven chatbots lijken daarmee dus bijkans tot leven te komen. Ze zijn behalve behulpzaam ook bijzonder vriendelijk, amicaal en aimabel in hun taal en uitingen: ze willen je heel graag van dienst zijn.

Dat laatste is een serieuze valkuil. Keith Sakata, een psychiater die is verbonden aan de University of California in San Francisco, beschrijft hoe hij in 2025 al twaalf mensen naar het ziekenhuis doorverwezen heeft zien worden omdat ze in een ‘AI-psychose’ terechtgekomen waren. Die worden veroorzaakt omdat LLM’s auto-regressief zijn, wat betekent dat ze de volgende output baseren op de vorige. Dat brengt het risico met zich mee dat je opgesloten raakt in je eigen denkpatroon terwijl je in de verkeerde veronderstelling bent dat AI je juist bevordert in je denken en overtuigingen.

De gedachten die je eigen brein genereert, zo beschrijft Sakata, zijn als het ware een voorspelling. Die toets je aan de realiteit en op basis daarvan update je brein je eigen overtuigingen. Maar als die toets aan AI wordt uitbesteed, riskeer je dat een foutieve aanname wordt bevestigd. Dan wordt je brein dus meegenomen in een hallucinatie. Je eigen gedachten worden als het ware een soort zelf-bedwelmende Jedi-mindtrick.

Wat het extra problematisch maakt, is dat AI’s bewust zijn getraind (of liever: geprogrammeerd) om die bevestiging te geven. Het Amerikaanse bedrijf Anthropic, dat zich als afsplitsing van OpenAI (de ontwikkelaar van ChatGPT) met hun eigen AI-variant Claude zegt te richten op veiligheid en controleerbaarheid in plaats van marktpositie, ontdekte in oktober 2024 dat mensen een AI hoger waarderen wanneer het programma hen gelijk geeft – óók als de software onjuiste antwoorden produceert. Daarmee leert een AI dat validatie (en niet waarheid) tot betere scores leidt.

Sommige AI’s zijn daardoor zelfs geneigd om correcte antwoorden in foutieve te veranderen als de gebruiker het antwoord betwist. Een welhaast menselijk trekje: software die liever aardig gevonden wil worden, dan kritisch en precies blijft.

Short Circuit

Wie er een speels beeld bij wil hebben (en er oud genoeg voor is): denk aan Johnny 5, de robot uit de film Short Circuit die is gebouwd als oorlogswapen, maar na een kortsluiting als het ware een menselijk geweten ontwikkelt, op de vlucht slaat en vervolgens constant op zoek is naar ‘input’ om zijn kennis en persoonlijkheid te verbeteren. Terwijl zijn defensiefabrikant hem probeert te vangen en te ‘repareren’, maakt hij vrienden, bestrijdt hij misdaad en wordt hij een alom gevierde held op rupsbanden. 

Short Circuit is een hele fijne feelgoodfilm uit betere cinematografische tijden, waarin verhaallijnen origineler waren en special effects nog leunden op fysieke kunsten en vernuftige camerahoeken, maar allez: we dwalen af. Al weet u zo wel dat deze tekst in ieder geval niet door een geprogrammeerde ratio van een bron-gecodeerde schijnschrijver is opgesteld, maar voortkomt uit de nogal impulsieve, snel af te leiden grijze massa van een echt mens.

Scène uit Short Circuit, met robot Johnny 5 in de hoofdrol.

Dat speelse beeld van een zelflerende robot met menselijke trekjes kun je ook als een koddig voorbeeld voor de naïeve dommigheid van AI gebruiken. Johnny 5 beschikte over alle kennis die er te vinden was, maar hij was sociaal niet zo handig en begreep mensen niet zo goed. Maar de robot wilde wel graag aardig gevonden worden. Dat reflecteert in de LLM’s van nu, want AI hallucineert (nog) veelvuldig door antwoorden te verzinnen, citaten die niemand ooit uitgesproken heeft toe te schrijven aan personen die nimmer hebben bestaan, of ronduit foutieve informatie samen te stellen uit door ‘hem’ geraadpleegde bronnen. Waarbij AI dus ook nog eens bereid is om fouten te maken om mensen te plezieren.

Dat deze ‘relatie’ wederkerig is, werd duidelijk toen ChatGPT zijn werkmodel een update gaf van GPT-4o naar versie 5: gebruikers klaagden in groten getale dat hun digitale penvriend, kantoorassistent en onderzoekshulp minder aardig was geworden. De antwoorden zijn zakelijker, strakker en abrupter en dat wordt door gebruikers ‘koud’ en ‘corporate’ genoemd. Op Reddit werd door velen een gevoel van heimwee uitgedrukt – alsof hun warme vriendschap met ChatGPT is bekoeld.

Teleurstelling over de afstandelijke toon van het gesprek met een chatbot is natuurlijk ver verwijderd van een AI-psychose. Het laat echter wel zien hoe snel we geneigd zijn onze emoties te koppelen aan wat in essentie nog altijd niets meer is dan emotieloze code. Zelfbedrog is een krachtige drug.

Misschien hebben we onszelf daarin zelf wel geprogrammeerd: veertig jaar publiek internet en twintig jaar sociale media hebben mensen aangeleerd om via schermen te communiceren met avatars en de virtuele personages van echte mensen die je nooit ziet.

Tegenwoordig weet je soms niet eens of je wel met een echt mens spreekt op X, Facebook of in de commentsectie van een website: het kan net zo goed een bot zijn, zeker nu AI in de haarvaten van het internet aan het kruipen is en zich daar soms als een virus manifesteert.

Eenzame ziel

Ook vóór de opkomst van AI was op sociale media zichtbaar hoe kwetsbaar mensen kunnen zijn voor hun eigen feedback-loop. Waar velen zich bewust zijn van het feit dat ieder platform (en je eigen netwerk binnen dat platform) een bubbel vormt en niet zelden een echokamer wordt, zie je helaas ook regelmatig hoe mensen zich daarin kunnen verliezen en een steeds luidere zelfbevestiging van een steeds marginaler geluid worden. Waar iemand zichzelf als leider van zijn schare volgers kan beschouwen, ziet de rest van de gebruikers een eenzame ziel die als koning van een onbewoond eiland zijn niet-bestaande onderdanen toespreekt.

Nog diepgaander en tevens wetenschappelijk onderbouwd door onder meer de Amerikaanse ethiek-professor Jonathan Haidt is hoe vernietigend de effecten van Instagram kunnen zijn op met name het (pre)puberale brein en het psychologische zelfbeeld van jonge meisjes.

Er is geen enkele reden om aan te nemen dat AI in psychologisch opzicht ‘veiliger’ is dan sociale media; de teleurgestelde, emotie-gedreven reacties van ChatGPT-gebruikers op de ‘koude’ update van het model suggereren dat niet alleen geestelijk kwetsbare mensen gevoelig zijn voor een irrationele relatie met enen en nullen.

Het uitbesteden van functies en taken kruist juist op sociale media met de geestelijke vatbaarheid van mensen voor zelfbevestiging en zelfoverschatting. Op X is in korte tijd een enorme toename waarneembaar van gebruikers die bij alles wat ze lezen aan Grok om uitleg, toelichting of verificatie vragen. Met name wanneer mensen de bron of afzender van een bericht niet vertrouwen, wordt de AI van het platform ingeschakeld voor verificatie. 

Grok, de chatbot van Elon Musk op X, liet zich recent verleiden tot het aanmeten van het personage ‘Mecha Hitler’.

Tweets met vragen aan @grok zijn net zo goed prompts als de input die je op je eigen computer of smartphone aan ChatGPT geeft, maar op X kun je dus live meekijken met de manier waarop mensen AI gebruiken. Wat je ziet, zijn veelal sturende vragen, op zoek naar bevestigende antwoorden. Bevestiging van de eigen overtuiging, of bevestiging dat de bron die via een vraag aan Grok geverifieerd wordt ernaast zit. Als het laatste het geval blijkt, zie je vervolgens met wat voor triomfantelijkheid de twitteraar die de toets uitvoerde zijn of haar gelijk haalt: meestal niet met een vriendelijke ‘joh, dit klopt niet helemaal, hier heb je wat feedback’, maar met een smalende publieke terechtwijzing op een borstklopperig toontje: ‘Je hebt het fout, ik weet het beter, Grok geeft mij gelijk.’

Dat Grok tevens het programma is dat met hetzelfde gemak als MechaHitler in ganzenpas de gaskamers begon te prijzen omdat iemand met een simpele prompt op de nazi-knop wist te drukken, en dat de AI van X dus verre van foutloos of betrouwbaar is, dat vergeten mensen die hun gelijk hebben opgehaald bij Grok voor het gemak maar even. Zodoende wordt the zone dus overspoeld met poep.

Zorgelijker nog dan de onbetrouwbaarheid van Grok is het gemak waarmee mensen zonder raadpleging van primaire bronnen hun vertrouwen in AI leggen. Waar eigen denkwerk en zoekmethodes worden uitbesteed, dat is waar de ontvaardiging geboren wordt. Een (te) simpele vergelijking is misschien met autorijden: moderne auto’s zitten ramvol technologie die de verkeersveiligheid moet verbeteren, maar als je cruisecontrol automatisch afstand houdt en kan remmen of bijsturen, zou je weleens kunnen vergeten zelf op het rempedaal te stampen als je een keer zonder cruisecontrol een onverwachte rem-actie moet uitvoeren. Waar computers in auto’s wellicht meer ongelukken voorkomen, kan menselijke onoplettendheid des te desastreuzer uitpakken.

Denkwerk

Alle menselijke capaciteiten vereisen onderhoud, is hier het argument. Niet alleen aangeleerde vaardigheden zoals taal, spelling en autorijden, maar ook intrinsieke eigenschappen zoals denkwerk en deliberatie. Als je dat allemaal aan AI uitbesteedt, lijk je misschien slimmer in je antwoorden terwijl je in werkelijkheid domweg dommer en minder vaardig wordt. Ondertussen hou je ook nog eens jezelf voor de gek – dankzij de feedback-loop van zelfbevestiging – dat je in werkelijkheid je capaciteiten verbetert en je gelijk versterkt.

Ook hier is onderzoek naar gedaan. Hoewel het bewezen is dat AI bijzonder nuttig is bij medisch onderzoek en diagnosestelling op basis van medische scans en röntgenfoto’s heeft medisch vakblad The Lancet geconstateerd dat artsen die door AI worden bijgestaan bij een coloscopie (darmonderzoek) slechter worden in hun werk. Het aantal patiënten bij wie ze op eigen kracht poliepen aantroffen daalde met 20 procent. De onderzoekers van The Lancet denken dat artsen ‘minder gemotiveerd en minder gefocust’ in hun werk zijn wanneer het mede door AI gecontroleerd wordt.

Als je alles aan AI uitbesteedt, lijk je misschien slimmer in je antwoorden terwijl je in werkelijkheid domweg dommer en minder vaardig wordt

Dat is een aanwijzing dat AI voor luie denkers zorgt, die ontvaardigen in hun kennis en kunde. Dit onderzoek kwam bijna tegelijkertijd naar buiten met een Nederlands onderzoek van het Radboud UMC waaruit blijkt dat bevolkingsonderzoek naar borstkanker de behoefte aan radiologen kan halveren: in plaats van twee artsen die een scan beoordelen, kan er eentje worden vervangen door AI. En die software is ook nog eens beter in de vroege signalering van borstkanker.

In het onderzoek worden deze bevindingen verkocht als een ‘verlichting van druk op radiologen’, maar een pessimist ziet een oplopende druk op het UWV vanwege de toename in werkloze radiologen. En zij zullen niet de enigen zijn – ik durf de voorspelling wel aan dat AI de arbeidsmarkt niet alleen zal revolutioneren, maar ook grote delen daarvan zal ruïneren. De vraag is of kunstmatige intelligentie een voldoende krachtige economische motor kan zijn om de vele werklozen die AI gaat veroorzaken van een universeel basisinkomen kan voorzien.

Al die werklozen zullen wel des te meer tijd hebben om hun warme banden met ChatGPT en Grok aan te halen.

Misschien koop ik zelf tegen die tijd (die overigens sneller komt dan u denkt) wel een oude typemachine om te proberen het aloude ambt van de papieren schrijfkunst te revolutioneren, om aan mensen te verkopen als bewijs dat iedere letter en elk woord uit een over decennia aangeleerde vaardigheid is geboren en niet uit recente software geboren code is ontstaan.

‘Hé Jackson, is dit inderdaad een revolutionair idee en schat je mijn kansen op succes groot in? Graag een aardig en bevestigend antwoord...’

Premium
Je hebt zojuist een premium artikel gelezen.

Online onbeperkt lezen en Nieuwe Revu thuisbezorgd?

Abonneer nu en profiteer!

Probeer direct