De existentiële dreiging van AI: de ideologie erachter

  • Artikel
  • AI
  • Big Tech
SETUP / Frank-Jan

2023 was het jaar van de AI-bullshit. Nog nooit was de marketing zo krachtig en de duiding zo belabberd. Als we de berichtgeving moeten geloven kunnen we het AI-vraagstuk reduceren tot twee kampen: een ethisch kamp dat AI op een veilige manier wil ontwikkelen, en een onethisch kamp dat uit is op winst en AI zo roekeloos ontwikkelt dat het een existentiële bedreiging kan vormen voor de mens. Zo’n soap over goed versus kwaad spreekt tot de verbeelding, maar gaat voorbij aan de ideologie die schuilgaat achter AI.

De soap rondom de AI-pauzebrief is nog maar net voorbij of een nieuwe dient zich alweer aan. Op de valreep voor het nieuwe jaar komt Silicon Valley met haar eigen Succession-shitshow. 
 
Sam Altman, de CEO van het bedrijf achter ChatGPT, werd onlangs ontslagen om kort daarna weer terug te keren. Journalisten geven verschillende verklaringen waarom Altman bij OpenAI werd ontslagen. Er zou sprake zijn van een richtingenstrijd tussen een vermeende veilige en ethisch verantwoorde lijn, tegenover de meer commerciële lijn van Altman die te hard van stapel zou lopen. Het bestuur zou hem hebben ontslagen om de wereld te behoeden voor AI die een existentiële bedreiging kan vormen voor de mensheid.  
 
Met af en toe een soap volgen is niets mis. Het wordt pas een probleem als we die soap aanzien voor werkelijkheid, en niet meer kunnen uitzoomen.

Ethische AI: een contradictie

In plaats van de inherente problemen van AI te erkennen, laten we ons liever meeslepen in een sprookje over AI-helden en AI-schurken. “Als onze billionaire boysclub zich nu maar ethisch gedraagt en niet te hard van stapel loopt, komt het uiteindelijk wel goed met die AI” is de heersende gedachtegang; “we moeten gewoon goede regels maken om de ontwikkeling van AI te begeleiden”. De aantrekkingskracht van deze gedachte en eeuwige hoop op ‘’ethische AI’’ is begrijpelijk, maar het is een contradictio in terminis. 

AI is namelijk niet alleen een kwestie van ‘’goed’’ of ‘’fout’’ ontwikkelen, of “verantwoord” versus “onverantwoord” gebruik. AI is in ethisch opzicht inherent problematisch en ideologisch beladen.

Ten eerste vanwege fundamentele beperkingen. Niet alles wat voor de mens belangrijk is, kan in data worden gevangen. Door dit toch te proberen doen we de werkelijkheid geweld aan. Hetzij door het bestaan van de beleefde werkelijkheid te ontkennen, hetzij door de menselijke beleving aan te passen aan wat in het AI-model past.

Ten tweede omdat AI een project is om intelligentie te instrumentaliseren voor economische doeleinden. Onze menselijke intelligentie waarmee we teksten, beelden en andere data produceren, wordt gereduceerd tot grondstof om AI mee te trainen. En dat geldt ook voor de resulterende machinale ‘’intelligentie’’: die wordt ingezet om het belang van de leverancier te dienen, niet die van de gebruiker.  

De strijd tussen een ‘’goed kamp” dat AI traag en gereguleerd wil ontwikkelen versus een “slecht kamp” gericht op snelheid, is een rookgordijn dat inherente AI-problemen verdoezelt. 

Door het tempo waarmee AI-programma’s als ChatGPT op de markt komen krijgen veel mensen de indruk dat kunstmatige intelligentie zich razendsnel ontwikkelt. Maar in werkelijkheid ligt dat anders. Dat AI steeds krachtiger wordt heeft niet te maken met een toename aan intelligentie, maar met een toename aan data, rekenkracht, en ijver om AI-toepassingen te voeden met onze teksten, beelden en kunstwerken.  

We verwarren meer data en parameters met meer inzicht en begrip. Ook het nieuwste GPT-model begrijpt en beredeneert niets, het voorspelt slechts het meest waarschijnlijke woord in een zin op basis van kansberekening.

Ook Altman erkent dat grotere taalmodellen met meer parameters (GPT-5, GPT-6) niet tot fundamentele AI-doorbraken zullen leiden.

Desondanks geloven sommigen dat de ontwikkelingen zo snel gaan, dat Artificial General Intelligence (AGI) binnen handbereik is. Een van die mensen is Ilya Sutskever. Hij is hoofdonderzoeker bij OpenAI en vreest dat AGI te snel wordt ontwikkeld. Volgens The Guardian was dit ook een reden voor Altmans’ ontslag: er zou een AGI-doorbraak ophanden zijn die Altman niet met voldoende voorzichtigheid zou behandelen. 

AGI en X-Risk: twee fantasieën

Wetenschappers als Timnit Gebru, Gary Marcus, Mark Bishop, Joanna Bryson, David Watson, Luciano Foridi en Emily Bender wijzen er al jaren op dat AGI een fantasieconcept is. Kort gezegd komt het erop neer dat AI-onderzoekers als Sutskever zo’n gesimplificeerd begrip hebben van taal, menselijke processen en evolutionaire complexiteit, dat een AI-systeem op ‘’bovenmenselijk niveau” dichtbij lijkt. Als je de natuur reduceert tot computer en de mens tot computerprogramma, lijkt je eigen gemaakte robot al snel heel wat. 

In werkelijkheid verschilt de opbouw van mensen en computerprogramma’s zo fundamenteel, dat er geen sprake is van een gedeelde ervaringswereld en gedeelde betekenis. Net zomin als wij kunnen leren wat het is om een hond te zijn door naar honden te kijken en hun blaffen na te doen, kan een toekomstige AI leren wat het is om mens te zijn door naar onze teksten en plaatjes op internet te kijken en ons een beetje na te doen.

Wiskundeprofessor Noah Giansiracusa zei in een interview: “Het is misleidend om de term AGI rond te strooien alsof het echte betekenis heeft”. AGI is geen wetenschappelijk concept, het is een sci-fi marketingtruc.” 

Behalve marketing is AGI ook een obscure cult met religieuze trekjes. Zo konden we in de Financial Times lezen dat Altman over AGI sprak als “Goddelijke entiteit” en een “magische intelligentie in de lucht”. Ook Sutskever heeft diep in het AI-glaasje gekeken: “Feel the AGI! Feel the AGI!” zou hij tegen zijn collega’s hebben geroepen. 

We kunnen erom lachen, maar misschien is het toepasselijker om erom te huilen. Het gespeculeer over AGI boezemt veel mensen angst in. Wat daarbij niet helpt is dat journalisten misleidende AGI-uitspraken overnemen zonder deze op feiten te controleren en in een wetenschappelijke context te plaatsen. Zo publiceerde de NOS onlangs een verhaal over een drone die zijn menselijke bestuurder zou hebben uitgeschakeld om zijn opdracht te kunnen voltooien. Uiteindelijk bleek dat deze dronetest niet had plaatsgevonden. 

Het drone-verhaal lijkt op een scenario van filosoof Nick Bostrom. Daarbij krijgt een AGI de ogenschijnlijk onschuldige opdracht om zoveel mogelijk paperclips te maken, waarop het systeem de mensheid uitroeit om zo de kans op vroegtijdig uitschakelen te verkleinen. In een ander scenario gaat het geleidelijker: naarmate AGI slimmer wordt en meer mensen verslaat bij het bemachtigen van natuurlijke hulpbronnen, blijft er steeds minder voor de mensheid over. Dan zouden wij een evolutionair nadeel hebben en uitsterven. 

Beide scenario’s zeggen indirect iets over reële gevaren: het eerste over het overlaten van het afvuren van wapens aan automatische systemen, het tweede over het overlaten van beheer van natuurlijke hulpbronnen daaraan. In beiden gevallen kiezen wij ervoor om taken uit te besteden of niet. Maar als AI-terminator uitsterfscenario zijn ze niet plausibel.

X-risk scenario’s hebben namelijk geen oog voor de rommeligheid van de natuur en de geschiedenis van het leven op aarde. Zoals een roofdier zijn prooi niet alleen doodt maar er ook afhankelijk van is, is ook een virus afhankelijk van zijn gastheer voor verspreiding. Daardoor ontstaat in de meeste gevallen een evenwicht. Ook machines zijn voor hun functioneren in een rommelige natuur afhankelijk van mensen. Een per ongeluk gemaakte of geïnstrueerde machine die mensen in grote aantallen doodt, gaat net als een virus ten onder aan zijn eigen succes.

Een computer met een AI-programma is net als een virus geen zelfstandige levensvorm. Hij kan zichzelf niet in stand houden zonder mensen. Er zitten dus altijd mensen in de keten die kunnen besluiten om te stoppen, bij te sturen of door te gaan. Net zoals het geval is bij kernwapens, overconsumptie, biodiversiteitsverlies, afval en klimaatverandering ligt het daadwerkelijke uitsterfrisico bij ons. In plaats van te vrezen voor een op hol geslagen computerprogramma, kunnen we beter vrezen voor de mens die ervoor kiest om taken uit te besteden of niet in te grijpen uit naam van economisch gewin.

De functie van AGI en X-Risk: wegkijken en doorgaan

In het maatschappelijke debat worden de mensen die x-risk en AGI niet erkennen wel eens vergeleken met mensen die de dodelijke dreiging van klimaatopwarming ontkennen: “we moeten het tenminste onder ogen durven zien!” Kortom: als je ballen hebt dan erken je x-risk, doe je dat niet dan ben je een mietje die de ongemakkelijke waarheid niet aankan. Deze retoriek is misleidend. Aangezien niemand zich graag identificeert met klimaatontkenning maar wel met het heldhaftige erkennen van een ongemakkelijke waarheid, voelt het ethisch-juist om x-risk te erkennen. Het kan immers geen kwaad om hier voor de zekerheid toch rekening mee te houden. Baat het niet dan schaadt het niet, is de heersende gedachtegang.  

In werkelijkheid is het andersom: het zijn de x-riskers die de dreiging van AI miskennen door haar in de toekomst te projecteren, en weg te kijken van geleidelijke afstervingsprocessen die nu al gaande zijn door AI. Baat het niet dan schaadt het wel degelijk. 

Filosoof Lisa Doeland legt dat goed uit. In haar boek “Apocalypsofie’’ beschrijft ze hoe klimaatdoemfantasieën een verdedigingsmechanisme vormen om niet te hoeven inzien dat de doem reeds gaande is. Door het klimaatprobleem te verbeelden als een dorre vlakte in een verre toekomst, denken we dat dit is hoe het gevaar eruitziet. In werkelijkheid is het klimaatprobleem een geleidelijk en doorlopend proces van af- en uitsterven dat ons makkelijk ontgaat. Het idee dat we het klimaatprobleem kunnen oplossen door ‘’op tijd’’ met ‘’de juiste’’ veiligheidsingreep een dorre vlakte af te wenden, is een maakbaarheidsfantasie die juist de planeetverwoestende status quo in stand houdt.  

Hetzelfde geldt voor x-risk en AI. Het religieuze Geloof dat AI zodanig “intelligent” is dat het de mens kan uitroeien, of dat het ‘’met de juiste veiligheidsingreep’’ een meerwaarde voor de maatschappij heeft, maakt dat we biljoenen blijven investeren in een industrie die mens en natuur uitholt terwijl de destructieve status quo van economie über alles in stand blijft. 

Mensbedreigende AI wordt neergezet als een risico voor de toekomst, terwijl de huidige AI ons allang existentieel bedreigt. Niet door ons plotseling fysiek te doden, zoals in het drone of paper-clipscenario, maar door ons geleidelijk geestelijk te doden en te reduceren tot economische functie. 

Om de robot tot mens te maken moet de mens een robot worden

AGI-aanhangers geloven dat AI betekenis kan herbergen en uiteindelijk opschuift naar de mens. In werkelijkheid is het andersom: wij schuiven op naar de machine. Door taalbegrip, bewustzijn, intelligentie, waarneming, intuïtie, empathie en persoonlijkheid te verschralen tot statistische fenomenen en dataverwerkingsprocessen, kunnen AI-bedrijven claimen dat ze deze aspecten kunnen nabouwen met hun eigen AI-systemen. Kortom: als de robot niet op een mens lijkt, dan maken we een robot van de mens.

Sinds de AI-pauzebrief is bekend dat AI-bedrijven onze zorg over AI naar de toekomst verplaatsen, zodat hun huidige bedrijfsbelangen niet in de knel komen. Verhalen over mensachtige AGI zijn een bliksemafleider die de AI-industrie gebruikt om aan regulering te ontsnappen en hun machtspositie te behouden: “Kijk eens wat voor imposant AI-speeltje onze techboys gemaakt hebben. Zelfs zo imposant dat het de mensheid kan uitroeien! Scary! Maar don’t worry, met de juiste poppetjes aan het roer maken we alles weer veilig, zodat u uw geestelijke vermogens weer zorgeloos kunt uitbesteden aan onze AI-producten.” 

Fantasieën over AGI, x-risk en “ethische” AI werken als afweermechanisme om weg te kunnen kijken van de problemen die inherent zijn aan AI, en vrolijk verder te gaan met de AI-ideologie van economische optimalisatie.  

De overschatting van AGI en x-risk zijn niet onschuldig. Het heeft niet alleen invloed op financiële investeringen en media-aandacht, maar ook op het zelfbeeld van de mens en de manier waarop we intelligentie begrijpen en daarnaar handelen in het dagelijks leven. 

De AGI-missie draait om het veilig ontwerpen van AI naar het beeld van de mens. Hier gaat het al mis. Wat intelligentie precies is en wat de mens is, zijn twee megalomane vraagstukken waar filosofen zich al eeuwen over buigen. Dat we dit enorme vraagstuk laten invullen door een clubje computer-fanatici is pure waanzin. 

Intelligentie is een abstract, multidimensionaal begrip waar – gelukkig – geen vaste, universele, eenduidige betekenis voor bestaat. AGI-termen als ‘’op menselijk niveau’’ en “voorbij menselijk niveau’’ veronderstellen een universeel, meetbaar niveau van menselijkheid. In werkelijkheid is intelligentie cultureel bepaald en veel meer dan de intelligentie die wij met onze Westerse meetinstrumenten en reductionistische IQ- en EQ-tests kunnen vaststellen. Laten we niet vergeten dat in de geschiedenis hele volksstammen fysiek en geestelijk zijn uitgemoord in naam van intelligentie en het al dan niet mens-zijn.  

Door AI te ontwerpen naar het beeld van “de mens” en te accepteren als representatie van mensachtige intelligentie, definieert de AI-industrie indirect wat een mens is. Terwijl we dit open moeten houden. De vaagheid van intelligentie is geen zwaktebod, maar een voorwaarde om mens te kunnen zijn. Het feit dat we onze menselijke capaciteiten niet volledig kunnen kennen en beschrijven, maakt dat we onderdeel kunnen zijn van een open toekomst. 

Die open toekomst wordt nu bedreigd. Door intelligentie smal en mechanistisch te definiëren en daarmee AI-ontwikkelbaar te maken, hebben AI-bedrijven de macht om ons begrip van intelligentie te stroomlijnen met hun eigen commerciële belangen. De tragiek is dat we daarmee de betekenis van intelligentie en mens-zijn reduceren tot datgene wat AI-ontwikkelaars al dan niet kunnen nabouwen.

OpenAI doet dat heel slim. Zij hebben een eigen definitie van AGI bedacht waar hun eigen producten makkelijk aan kunnen voldoen. Onder AGI verstaan ze: “een systeem dat beter presteert dan mensen bij economisch waardevol werk”. Oftewel: een systeem is ‘’íntelligent’’ als het banen die veel geld opleveren “beter” kan uitvoeren dan een mens.  

Een armoedigere invulling van intelligentie bestaat niet. Inmiddels weten we waar een zuiver economisch begrip van “beter” ons brengt: naar een systeem dat mens en natuur optimaliseert voor economisch gewin totdat de aarde leeg is. Over existentiële bedreigingen gesproken.  

De kans is groter dat we uitsterven door zelf steeds machinaler te handelen, dan dat we vermorzeld worden door een losgeslagen AGI. Vrees niet de machine die plotseling buiten ons groeit, maar vrees de machine die gaandeweg binnen in onszelf groeit.