Premium

'We moeten véél banger zijn,' waarschuwt 'AI-peetvader' Geoffrey Hinton

'Peetvader van de AI' Geoffrey Hinton zorgde vorig jaar voor ophef door op te stappen bij Google. Voortaan wil hij de mensheid waarschuwen voor artificiële intelligentie, dat hij ondermeer ziet als een groot gevaar voor de democratie.

Geoffrey Hinton

Geoffrey Hinton ontvangt ons in een klein, gezellig appartement in het hart van Parijs. Zijn geest werkt op zijn 76ste nog goed, zijn lichaam iets minder: hij heeft chronische rugpijn en vermijdt neerzitten zoveel mogelijk. Hij blijft meer dan een uur lang rechtop staan. Af en toe stapt hij rond, erop lettend dat hij niet te veel lawaai maakt. ‘Ik wil mijn vrouw niet wakker maken, ze slaapt hiernaast,’ zegt hij.

Hinton is een wereldautoriteit op het vlak van artificiële intelligentie. Hij pionierde in de jaren 80 in neurale netwerken, een tak van artificiële intelligentie waar op dat moment weinigen toekomst in zagen, maar vandaag de ruggengraat vormt van heel wat vormen van artificiële intelligentie, waaronder ChatGPT. In 2013 verkocht hij samen met twee onderzoekers van de universiteit in Toronto, waar hij woont en werkt, DNNresearch aan Google, een start-up gespecialiseerd in deep learning, spraakherkenning en visuele herkenning van objecten.

Yoshua Bengio, een vroegere collega van Geoffrey Hinton.

Hinton werkte daarna deeltijds als vicepresident en engineer fellow bij Google, waar hij mede leiding gaf aan Google Brain, een onderzoeksteam dat zich toelegde op deep learning: een vorm van machineleren die gebruikmaakt van kunstmatige neurale netwerken. In 2018 ontving Hinton samen met Yann LeCun en Yoshua Bengio de Turing Award, de Nobelprijs voor computerwetenschappers, een van de vele prijzen en onderscheidingen die hem te beurt vielen.

Vorig jaar zei hij zijn functie bij Google vaarwel. ‘Ik kan door mijn leeftijd mijn werk niet meer zo goed doen als vroeger. Mijn geheugen werkt minder goed. Er is nog een reden waarom ik opstapte: ik wilde vrijuit kunnen spreken over de gevaren van AI, wat moeilijker lag zolang ik bij Google werkte. Ik wilde niet dat mensen mij ervan zouden verdenken dat ik het doe om Google te helpen.’

'Als je AI vraagt een oplossing te bedenken voor het klimaatprobleem, dan kan het beslissen dat het uitroeien van de mensheid de beste manier is om dat te doen’

U ziet veel gevaren bij AI, van banenverlies tot deepfakes die de democratie bedreigen, maar het grootste is volgens u dat de technologie het leven van ons zou overnemen. U acht dat realistisch?
‘O ja. Toen ik vorig jaar zei dat AI veel zou kunnen overnemen, waren er veel mensen die dachten dat het sciencefiction was, vandaag zijn het er al een stuk minder. Zij die denken dat het sciencefiction is, zijn niet de mensen die weten hoe grote taalmodellen werken en die ze gebouwd hebben (grote taalmodellen zijn vormen van AI die menselijke taal begrijpen en produceren, zoals ChatGPT, red.). Er zijn ook wel specialisten die denken dat ze geen bedreiging zijn, zoals Yann LeCun. Hij denkt dat ze mogelijk wel slimmer gaan worden dan ons, maar dat we ons geen zorgen moeten maken, omdat we ze onder controle kunnen houden. Ik geloof dat niet. Hoeveel voorbeelden ken jij van een intelligenter iets dat gecontroleerd wordt door een minder intelligent wezen? Een baby controleert zijn moeder, maar niet in die mate dat je moet kiezen tussen het leven van de moeder of de baby. Bij AI kan dat wel.’

Waarom zou AI de mensheid willen uitroeien?
‘Er zijn verschillende mogelijke redenen. Eén is evolutie. Stel dat je meerdere intelligente AI-systemen hebt en dat een ervan kopieën van zichzelf wil gaan maken. Dat is mogelijk zodra het doelen gekregen heeft van mensen en denkt dat het heel goed is in het realiseren van die doelen. Het kan ervan overtuigd raken dat het daarin beter is dan de andere systemen, waardoor het beter zou zijn dat er meer kopieën zijn van zichzelf. Vanaf dat moment kan het dominant worden en steeds meer controle proberen te krijgen. Het kan ook dat het van ons de vrijheid krijgt om nevendoelstellingen te creëren om een hoofddoel te bereiken. Het kan zo proberen om steeds meer controle te krijgen en obstakels uit te schakelen. Het kan ook dat we een AI-systeem een opdracht geven, maar dat we niet doorhebben dat de manier waarop het gerealiseerd wordt, schadelijk kan zijn voor ons.’

Mogen we daar een voorbeeld van?
‘Als je AI vraagt een oplossing te bedenken voor het klimaatprobleem, dan kan het beslissen dat het uitroeien van de mensheid de beste manier is om dat te doen. Los daarvan is er nog een ander probleem: sommige menselijke waarden komen niet met elkaar overeen. Sommige mensen vinden bijvoorbeeld dat zware bommen gooien op kinderen altijd een slecht idee is, anderen vinden dat het in sommige omstandigheden wel kan. De Israëli’s vinden bijvoorbeeld dat het kan in Gaza. Mind you, je wordt tegenwoordig uit de Britse Labour Party gezet als je dat zegt.’

U vreest dat AI ongelijkheid doet toenemen en de deur kan openzetten naar fascisme. Op welke manier?
‘Iemand als Trump is mogelijk in de VS omdat arbeiders er slecht bedeeld worden. Er is een toename in productiviteit die vooral naar de rijken gaat. Zij betalen minder belastingen dan de armen, omdat hun rijkdom vooral komt uit kapitaalwinst. In de 19de eeuw dreigde alle rijkdom naar de fabriekseigenaars te gaan. Dat werd toen opgelost doordat er vakbonden kwamen. Zij zorgden ervoor dat de arbeiders hun deel kregen van de productiviteitswinst die ze mee creëerden. Dat is wat we vandaag nodig hebben. Helaas zijn ze er in de VS in geslaagd om vakbonden zo goed als buitenspel te zetten. In China zijn ze zelfs verboden. Wanneer mensen in de VS met de hulp van vakbonden goede jobs zouden hebben, is de kans veel kleiner dat ze Trump steunen.’

AI-beeld van Donald Trump.

Maar terug naar AI: de dreiging ervan wordt groter als Trump herverkozen wordt?
‘Ik twijfel er niet aan dat Trump geen enkele scrupule heeft om AI in zijn voordeel te gebruiken. De technologie zal sowieso in handen vallen van mensen met slechte bedoelingen, dat staat vast. Terroristen die een klein beetje financiële middelen hebben – 1 miljoen dollar bijvoorbeeld – kunnen makkelijk een ziekteverwekkend virus in elkaar steken. Herinner je je de Japanse sekte die midden jaren 90 aanvallen met een zenuwgas in de metro van Tokio uitvoerde om zoveel mogelijk mensen te doden? Ze zouden dankzij AI veel dodelijker kunnen zijn. Er zijn zoveel gevaren gelinkt aan wat we nu aan het ontwikkelen zijn. Ik denk niet dat de meeste mensen zich daar bewust van zijn. Anders zouden ze veel banger zijn. We zijn zo weinig bang dat het belachelijk is. Stel je voor dat wezens van een andere beschaving hier landen: dan zouden we bang zijn, niet? We hebben dingen gemaakt die heel erg verschillend zijn van ons. We begrijpen op min of meer dezelfde manier, maar ze zijn anders en kunnen veel slimmer zijn. Ik had het met Margrethe Vestager, vicepresident van de Europese Commissie, over het feit dat AI ons zou kunnen overnemen omdat ze vinden dat ze het beter doen dan wij. Haar antwoord was: “Waarom niet? We hebben het er zó slecht van afgebracht.”’

Niet geruststellend, uit de mond van een politicus.
‘Ze is gewoon realistisch.’

U had het over de impact van AI op verkiezingen. We staan op dat vlak voor een cruciaal jaar.
‘Ik denk dat er een week voor de Amerikaanse verkiezingen een groot aantal nepvideo’s zal opduiken, zodat er geen tijd is om ze te weerleggen.’

Wie gaat die maken?
‘De Republikeinen, gesteund door hun buitenlandse sponsors, zoals Poetin.’

Valt daar iets aan te doen?
‘Je kunt er iets aan doen, alleen weet ik niet of ze het in de VS zullen doen. Je zou kunnen aangeven welke video’s nep zijn, maar de kans is heel klein dat het ooit zover komt in de VS. De Republikeinen zouden een wet daarover nooit goedkeuren. Je kan daarentegen wel aangeven dat een video echt is. Dat is een beetje hetzelfde als in Groot-Brittannië, toen er honderden jaren gelden veel pamfletten opdoken waar flagrante leugens in verkondigd werden. Om dat tegen te gaan, moesten drukkers vanaf een bepaald moment hun naam op het drukwerk vermelden. Wat je vandaag zou kunnen doen, is een QR-code op een video zetten die je naar een gecertifieerde website leidt, waar je een kopie van de video vindt. Zo kun je controleren of de video echt is. Zo verklein je het probleem. Niet iedereen zal de moeite doen om de echtheid te controleren, maar het kan volstaan dat één iemand van een groep dat doet om anderen duidelijk te maken dat het een spoof is.’

Een zogenoemde ‘kamikaze-drone’ wordt afgevuurd.

U had het nog niet over discriminatie, volgens sommigen een groot probleem bij AI.
‘Sommigen denken dat ik het daar niet over heb omdat ik een oude witte man ben. Discriminatie zit nu al in onze systemen, maar dat zijn de dingen waar ik vandaag het minst om bekommerd ben. Als je een systeem minder vooringenomen en discriminerend maakt vanaf het begin, kan AI beter werken dan de mensen die het vervangt. Dat is mogelijk. We kunnen meten hoe vooringenomen ze zijn en het bijsturen. We gaan het nooit helemaal wegkrijgen, maar je kan het goed onder controle krijgen. Bij mensen kan je het niet meten, want zodra je dat doet, veranderen ze hun gedrag. Discriminatie is een van de weinige problemen die je kan oplossen.

Een heel ander gevaar vormen autonome wapens. Dat is een concrete dreiging, iets waar we op korte termijn mee te maken kunnen krijgen. Het is zelfs niet duidelijk of ze er vandaag al zijn, maar het Amerikaanse ministerie van Defensie is van plan er veel te hebben. Ze werken eraan. Je hebt al drones die uitgestuurd worden, maar de vraag is hoeveel autonomie ze hebben. Omdat hun communicatiesystemen onklaar gemaakt kan worden, wil je dat ze al uitgerust zijn met een intern beslissingssysteem. Het Amerikaanse leger heeft al duidelijk gemaakt dat er geen mensen in de loop zullen zitten wanneer er beslissingen genomen moeten worden over het uitschakelen van mensen. Er zal supervisie gebeuren door mensen, maar drones zullen ter plekke zelf beslissen. Dat is waar we naartoe gaan. Autonome wapens zijn efficiënter naarmate ze meer autonomie hebben.

Er zijn zoveel verschillende gevaren tegelijk die op ons afkomen. Je hebt phishing-aanvallen, die veel meer voorkomen en veel ingenieuzer zijn dan voorheen. Ik ben recent gestopt met het vertrouwen van banken. Ik denk dat er grote cyberaanvallen gaan komen. Wanneer AI slimmer is dan wij dan is het mogelijk dat het banksysteem vernietigd wordt. Ik woon in Canada, ik ben nog vrij safe. De Canadese banken zijn veiliger, dat waren ze ook tijdens de crisis van 2008. Geen van hen was tijdens de bankencrisis in gevaar. Dat heeft te maken met striktere overheidsregels. Ik denk dat grote banken vandaag niet meer veilig zijn. Het beste dat je kan doen, is je geld op verschillende banken zetten.’

‘Het gevaar bestaat dat ik paniek creëer en mensen bezorgd maak, maar dat is het waard. Het was ook de moeite waard om mensen bang te maken voor nucleaire wapens’

Was er een moment waarop u dacht: AI gaat veel sneller dan ik had verwacht?
‘Ja, dat was bij Chat GPT2, denk ik. Dat werkte veel beter dan ik verwachtte. Het moet 2018 of 2019 geweest zijn. Ze konden uitleggen waarom een grap leuk was. Ik gebruik dat altijd als een test om te zien of ze iets begrijpen. Ze kunnen geen grappen vertellen, maar ze kunnen wel uitleggen waarom ze grappig zijn. Niet bij alle, maar wel bij veel. Wat ze dan weer niet kunnen, is grappen maken. Ze starten met “een priester en een octopus stappen een bar binnen”, wat klinkt als het begin van een goeie grap, maar het komt dan met een werkelijk afschuwelijk slechte pointe, haha.’

Wanneer wordt AI volgens u slimmer dan mensen?
‘Er is 50 procent kans dat we binnen vijf tot twintig jaar superintelligentie krijgen, intelligentie die ons cognitief ver overtreft. Wanneer we systemen hebben die even slim zijn als wij, dan komen er snel systemen die slimmer zijn. We zitten daar al vrij dichtbij.’

Niet iedereen deelt uw pessimisme over AI. Sommige mensen vinden doemdenken gevaarlijker dan de technologie zelf.
‘Dat zou kloppen als er geen echte dreiging was, maar die is er wel. Je kunt het existentiële gevaar van AI niet overschatten. We moeten veel banger zijn. Véél banger. Ik vind dat ikzelf ook veel banger moet zijn. Niet voor mezelf, ik ben 76 jaar, maar voor de toekomst van mijn kinderen. Stel dat er aliens op aarde landen: dan zouden we bang zijn, toch? Dat is precies wat er nu gebeurt. We krijgen te maken met een vorm van intelligentie die ons binnenkort overtreft. Het gevaar bestaat dat ik paniek creëer en mensen heel bezorgd maak, maar dat is het waard. Het was ook de moeite waard om mensen bang te maken voor nucleaire wapens. We hebben kunnen vermijden dat iedereen, behalve de Amerikanen, ze gebruikt hebben.’

We vonden een manier om ermee om te gaan. Waarom zou dat niet kunnen bij AI?
‘Het is mogelijk, maar er is één groot verschil: atoombommen kunnen voor niets anders gebruikt worden dan dingen vernietigen. Ze hebben wel geprobeerd meer toepassingen te vinden. In Colorado hebben ze in de jaren 60 geprobeerd om het te gebruiken voor fracking (een manier om schaliegas en schalieolie uit diepe ondergrond vrij te maken, red.). Het werkte niet. Het was het enige dat ze konden bedenken, er zijn geen andere toepassingen. Je zou het natuurlijk kunnen gebruiken om kanalen te graven (grijnst).’

Er zijn toch ook veel goeie toepassingen van AI?
‘Ja, absoluut. Ik waarschuw voor de desastreuze gevolgen die AI kan hebben, omdat ik heel veel grote problemen zie, maar er zijn ook veel uitstekende toepassingen. Daarom gaan we ook niet stoppen met de ontwikkeling ervan. Het zou toch fantastisch zijn dat je een bedrijf kan opbellen omdat je een product hebt dat niet werkt en dat een chatbot naar je luistert, het probleem identificeert en je uitlegt hoe je het kan herstellen? Of dat er een systeem is dat je iets dat je niet begrijpt heel duidelijk en traag kan uitleggen? GPT4 doet dat nu al voor software.

Ik kan niet werken met Excel en het interesseert me ook niet. Het is een echt vervelend programma, maar ik had het dit jaar nodig voor mijn belastingen. Met GPT4 erbij was het makkelijk. Het is alsof er een expert naast je zit die je alles uitlegt. Geweldig, dat is wat we altijd wilden van dat soort systemen: dat ze ons helpen. Er zijn nog veel andere goeie toepassingen van AI, zoals in de gezondheidszorg en geneeskunde. AI kan in sommige gevallen heel goed medische beelden interpreteren of diagnoses maken. Ook bij diagnoses kan het een grote hulp zijn. Bij moeilijke diagnoses haalt een dokter een score van 40 procent, een AI-systeem 50 procent. Als je de twee combineert, krijg je een score van 60 procent. Bij moeilijke diagnoses laat een dokter zich dus het beste bijstaan door AI, want daarmee kun je levens redden. In Noord-Amerika alleen sterven elk jaar 200.000 mensen door een verkeerde diagnose. Door AI te gebruiken, kun je evenveel mensen redden als dat er sterven door geweren, auto-ongevallen of zelfmoord. Het probleem is dat dokters heel conservatief zijn. Op dit moment doden ze veel mensen door AI niet te gebruiken, maar er is niemand die hen daarvoor bestraft.’

Het probleem is dat dokters heel conservatief zijn. Op dit moment doden ze veel mensen door AI niet te gebruiken, maar er is niemand die hen daarvoor bestraft’

Hoe moeten we volgens u reageren op de gevaren van AI?
‘We moeten nadenken of we iets kunnen doen om te garanderen dat ze het niet overnemen. Ik ben te oud om uit te dokteren hoe dat het best kan, maar ik moedig jonge onderzoekers aan om eraan te werken. We moeten daar veel moeite insteken. Dat doen sommige bedrijven niet. Facebook bijvoorbeeld heeft de gewichten van grote modellen openbaar gemaakt (elke verbinding in een kunstmatig neuraal netwerk heeft een gewicht, een getal dat het verkeer tussen twee neuronen regelt, red.). Elon Musk doet nu hetzelfde. Ik vind dat verschrikkelijk onverantwoord. Criminelen kunnen dat gebruiken om de modellen te verfijnen en te gebruiken.’

Wie moet de veiligheid van AI-modellen garanderen, als bedrijven het niet doen?
‘Het is volgens mij de taak van de overheid om het zo te reguleren dat bedrijven nog steeds winst kunnen maken, maar op zo’n manier dat het nuttig is voor de maatschappij. Dat is niet makkelijk, maar het moet gebeuren. Overheden zijn zich al bewust van het probleem. Ze nemen kleine stappen, maar vaak is het nog veel te slap. De Amerikaanse president Joe Biden heeft een grote executive order ingevoerd die zegt dat je geen grote modellen mag trainen zonder dat de overheid er weet van heeft. Europa heeft een AI-wet, maar ook die is zonder tanden. In California hebben ze iets dat wel verder gaat. Als je daar grote modellen traint, moet je er testen op doen en zeggen aan de Californische overheid hoe je ze precies getest hebt. Als je dat niet doet, kunnen ze je vervolgen. Het is de eerste wetgeving die ik gezien heb met expliciete handhavingsmechanismen erin. Maar dat zowel de VS als de EU militaire toepassingen uitsluit, is een heel slecht teken. En ze verbieden niet om de gewichten van AI-modellen openbaar te maken, wat volgens mij dringend moet gebeuren. Vandaag wordt de beslissing om dat toch te doen genomen door Elon Musk en Mark Zuckerberg. Als je hen vertrouwt om dat te doen en hen de toekomst laat bepalen, moet je wel dom zijn. Daar mag je me op citeren.’

Heeft u spijt van wat u mede gecreëerd heeft?
‘Ik heb geen spijt over beslissingen die ik genomen heb. Toen ik eraan begon, leek het niet waarschijnlijk dat het zou leiden naar iets bedreigends, zeker niet in deze tijdspanne. Ik dacht dat het nog ver weg was en dat we meer dan genoeg tijd zouden hebben om uit te vissen wat we er aan konden doen. Helaas had ik dat verkeerd ingeschat.’

Premium
Je hebt zojuist een premium artikel gelezen.

Online onbeperkt lezen en Nieuwe Revu thuisbezorgd?

Abonneer nu en profiteer!

Probeer direct