Waarom we een AI-bullshit pauze nodig hebben

  • Artikel
  • AI

Iedere keer wanneer een nieuwe ChatGPT variant uitkomt zijn we terug bij af. Dan buitelen de media over elkaar heen met ‘’intelligentie-explosies’’ en robots die de mens overbodig maken. Deze maand bereikten we een nieuw dieptepunt. Grote namen uit de tech-wereld ondertekenden een brief waarin wordt gepleit voor een AI-pauze. Maar de brief zet ons op het verkeerde been en leidt ons af van de daadwerkelijke gevaren van AI. 

“Kunnen we niet een pauze voor AI inlassen?” Ik hoor het mijn collega aan de vergadertafel nog zeggen. We bespraken het Rotterdamse fraude-algoritme, dat alleenstaande moeders ten onrechte had aangemerkt als fraudeur. Ik probeerde me voor te stellen hoe zo’n AI-pauze ingevuld zou worden. “Ik zie het niet voor me”, zei ik, “Geld gaat altijd voor, bij voorkeur vermomd als ethiek.”

Wat we niet wisten is dat een week later een open brief zou verschijnen die pleit voor een AI-pauze. De brief, gepubliceerd door het Future of Life Institute, stelt voor om een pauze van zes maanden in te lassen voor het trainen van AI-systemen krachtiger dan GPT-4. Inmiddels zijn er bijna dertigduizend ondertekenaars, waaronder Elon Musk en andere vertegenwoordigers van big tech.

PR voor de AI-industrie

Op de dag van publicatie stond mijn telefoon roodgloeiend: “Heeft u DE BRIEF al gelezen!? Wilt u daar in onze radio-uitzending op reageren?”

Toen ik de brief las viel ik lachend van mijn stoel om er vervolgens weer huilend op te kruipen. Wat ik las was geen pleidooi voor een AI-pauze. Ik las een commercial voor kunstmatige intelligentie waar de scifi-stemmingmakerij vanaf droop. “Kijk eens wat voor geweldig AI-speeltje onze techboys hebben gemaakt. Zelfs zo geweldig dat het de mensheid overbodig dreigt te maken! Scaryyy! Maar don’t worry. Met een pauze maken we AI veilig, zodat u binnenkort uw geestelijke vermogens weer zorgeloos kunt uitbesteden aan onze chatbots, zoekmachines en AI-beeldgeneratoren.”

Een betere PR-stunt voor de AI-industrie bestaat niet. Ik hoop dat we de ironie daarvan inzien.

AI-experts zoals Emily M. Bender en Timnit Gebru distantiëren zich van de brief vanwege feitelijke onjuistheden en de zorg dat het scifi-narratief beleidsmakers op het verkeerde been zet.

Powerfull digital “minds”

De brief spreekt over “powerful digital minds that no one can control” en “nonhuman minds that might eventually outsmart, obsolete and replace us”. Maar AI is geen natuurkracht, het ontwikkelt zich niet exponentieel, en het is geen ‘’digital mind’’.

Dat AI steeds krachtiger wordt heeft niet te maken met een toename aan computerintelligentie, maar met een toename aan toepassingen die op de markt komen, en het enthousiasme waarmee wij die toepassingen voeden met onze teksten, beelden en kunstwerken. We verwarren meer data en parameters, met meer intelligentie.

Ook het nieuwste GPT-model, heeft meer met woordvoorspelling te maken dan met intelligentie. Het begrijpt en beredeneert niets, en voorspelt slechts het meest waarschijnlijke woord in een zin op basis van kansberekening. Dat GPT-4 hoog scoort op verschillende tests, komt doordat het getraind is op data die aansluit bij de tests. Zelfs de CEO van OpenAI erkent inmiddels dat grotere taalmodellen met meer parameters (GPT-5, GPT-6) niet tot fundamentele AI-doorbraken zullen leiden.

In de brief wordt AI voorgesteld als een natuurkracht die buiten onszelf staat. Maar AI wordt gemaakt, getraind en geïnterpreteerd door mensen. Dat in dat proces dingen gebeuren die wij niet begrijpen, geldt voor heel veel technologieën die wij dagelijks gebruiken. Denk bijvoorbeeld aan de paracetamol, de auto of je telefoon. Wanneer we niet precies begrijpen wat er binnenin die technologieën gebeurt, betekent dat niet dat we te maken hebben met een losgeslagen entiteit die plotseling bewustzijn heeft ontwikkeld en vanuit een eigen ideeënwereld beslissingen neemt. Het betekent wel dat in de interactie tussen technologie, mens en samenleving, complexe dingen gebeuren die we niet altijd tot in detail begrijpen.

Die begripsgaten vinden we lastig. Daarom vullen we ze op met antropomorfisering. Als AI iets onbegrijpelijks doet, dan moet dat wel vanuit een ‘’mind’’ gebeurd zijn die het onbegrijpelijke proces moet verklaren. Steeds meer AI-experts verzetten zich tegen deze misleidende antropomorfisering. Ten eerste omdat de vergelijking tussen AI en menselijke intelligentie verkeerde verwachtingen schept. Mensen leren anders dan computers, en produceren en interpreteren taal op een heel andere manier. Peuters kunnen bijvoorbeeld een woord begrijpen nadat ze het één keer hebben gehoord, omdat ze het kunnen koppelen aan een concept dat ze al kennen. AI-modellen hebben miljoenen woorden of afbeeldingen nodig om hetzelfde te doen, en zijn daardoor extreem energie-inefficiënt.

Ten tweede omdat mensen met termen als ‘’mind’’ commercieel misleid worden om te denken dat ze te maken hebben met een wezen met gevoel en bewustzijn, waardoor ze meer taken aan programma’s als ChatGPT toevertrouwen en de output serieuzer nemen. Zo pleegde een Belgische man zelfmoord, volgens zijn vrouw omdat hij luisterde naar zijn chatbot, die hij voor een volwaardige gesprekspartner had aangezien. Een ander voorbeeld is CNET; journalisten moesten duizenden artikelen corrigeren die de nieuwswebsite aan ChatGPT had uitbesteed.

Behalve met antropomorfisering, worden begripsgaten ook opgevuld met AI-marketing. Omdat grote deep learning doorbraken uitblijven, creëren AI-bedrijven hun eigen hypes om nog interessant te blijven. Zo kun je er vergif op innemen dat elk jaar dezelfde berichten verschijnen over ‘’losgeslagen” AI-systemen die “plotseling” rare dingen doen. Vorige week was het weer raak met Google’s chatbot Bard. CEO Sundar Pichai beweerde dat de chatbot zichzelf Bengaals had aangeleerd. Al snel toonde ex-Google medewerker Margaret Mitchell aan dat dit niet klopte. Google had in 2022 al een AI-model getraind om te communiceren in het Bengaals. Volgens Mitchell creëren techbedrijven opzettelijk hypes en spektakel rondom hun producten, omdat dit leidt tot meer investeringen.

Reële AI-gevaren

Betekent dit dat AI niet gevaarlijk is en we de huidige ontwikkelingen dan maar moeten omarmen? Integendeel. Er zijn goede redenen om bang te zijn voor AI: de toenemende machtsconcentratie van techbedrijven, het enorme energie- en waterverbruik, de reproductie van maatschappelijke ongelijkheid, schade aan ons informatie-ecosysteem, negatieve feedbackloops, culturele homogenisering en cognitieve inteelt.

Want de teksten die uit programma’s als ChatGPT rollen worden ook weer gerecycled als trainingsinput. Daardoor krijgen we steeds meer teksten aangeboden die met steeds minder gedachten geproduceerd zijn. Niet alleen teksten, maar ook beelden, clips en muzieknummers worden steeds vaker ge(co)creëerd met toegankelijke AI-programma’s als Midjourney, Dall-E en MusicLM. Omdat deze programma’s een remixende, statistische echoput zijn van reeds bestaande content, begint alle content steeds meer op elkaar te lijken. In plaats van AI-singularity, kunnen we ons dus zorgen maken over een singularity of sameness. Niet alleen ‘’sameness’’ qua content, maar ook in de manier waarop we naar de wereld kijken, waarschuwt James Bridle in zijn nieuwste boek:

James Bridle
“The limits of our current computers are becoming the limits of human thinking. The appearance of computers was so wondrous that it convinced us that the universe is like a computer, that the brain is like a computer, that we and plants and animals and bugs are like computers – and more often than not we forget the ‘’like’’. We treat the world as something to be computed, and thus amenable to computation. We think of it as something which can be broken down into discrete points of data and fed into machines. We believe the machine will give us concrete answers about the world which we can act on, and confers upon those answers a moral impunity.”

Het probleem met AI is dat we de daadwerkelijke gevaren saai vinden. Het scifi-narratief is aantrekkelijker omdat het spectaculair is en bovendien alle verantwoordelijkheid buiten de mens plaatst. Want als AI een natuurkracht is, dan kunnen wij daar als eenvoudige stervelingen niet zoveel aan doen. Dat AI een manifestatie is van wie wij zelf zijn, en een product is van onze eigen data-input en nihilistische verlangens om het menszijn uit te besteden aan machines, vinden we lastig. Liever verklaren we ons afhankelijk van heilige AI-overlords, die hun systemen al dan niet pauzeren.

Een andere belangrijke aantrekkingskracht van het scifi-narratief is dat het mensen hoop biedt op ‘’superintelligence for good’’. Als we geloven dat AI een superintelligentie is met allesverwoestende vermogens, dan lijkt de uitdaging opeens simpel: we moeten die vermogens inzetten om wereldproblemen op te lossen. Dat is de verleidelijke worst die de hoge priesters uit Silicon Valley ons voorhouden: AI helpt kanker genezen en geeft ons meer tijd voor belangrijke taken.

De realiteit is complexer. Zo is er geen overtuigend bewijs dat AI beter borstkanker kan herkennen dan radiologen, en blijkt dat AI in biomedische labs niet perse leidt tot effectieve tijdsbesparingen. De tijd die wetenschappers kwijt zijn aan het AI-leesbaar maken van informatie, oplossen van technische problemen en controleren van AI-systemen, blijkt ten koste te gaan van belangrijke activiteiten zoals het ontwikkelen van nieuwe hypothesen. In plaats van AI voor ons te laten werken, gebeurt in de praktijk vaak het omgekeerde: mensen moeten harder werken om hun taken en dagelijkse bezigheden machine-leesbaar te maken, terwijl dat niet tot meer productiviteit leidt.

Overbodige mens

We moeten dan ook kritisch kijken naar de belangen van waaruit organisaties en bedrijven AI-oplossingen en AI-gevaren promoten. Zo komt de AI-pauzebrief uit de koker van het Future of Life Institute. Deze organisatie hangt de controversiële ideologie van longtermism aan. Longtermists streven naar een toekomst met radicaal verbeterde posthumans, een commercieel gekoloniseerde ruimte, en biljoenen digitale mensen wier toekomstige digitale levens belangrijker worden geacht dan het huidige leed van echte mensen.

Het is gevaarlijk om onze AI-aanpak te laten domineren door de digitale fantasieën van een clubje superrijken die het contact met de werkelijkheid in hun billionaire-boys-bunker compleet verloren zijn. De ghostworkers die voor een paar cent onze AI-systemen draaiende houden, de werknemers die traumaklachten ontwikkelen omdat ze de output van generatieve AI-systemen filteren, de vrouwen die speciale kleding moeten dragen om niet gevolgd te worden, en de kunstenaars wier werk wordt gestolen om AI-beeldgeneratoren te trainen, hebben geen boodschap aan een fictieve AI intelligentie-explosie waarmee we onze fictieve levens in een fictieve toekomst fictief kunnen uploaden naar een energieslurpende cloud.

Als ik om mij heen kijk zie ik geen AI die de mens overbodig maakt, maar een mensheid die de mens overbodig maakt. Het type intelligentie dat we in AI proberen te gieten is juist wat ons in de problemen brengt: statistische optimalisering voor economische doeleinden, extrapolatie van koloniale patronen uit het verleden, kennis zonder begrip, en een veronachtzaming van de fysieke wereld. Als we ergens aan ten onder gaan, dan is dat niet aan de intelligentie van computers, maar aan onze eigen nihilistische verlangens. Of in de woorden van computerwetenschapper Jaron Lanier: aan onze eigen waanzin.

Jaron Lanier
“This idea of AI surpassing human ability is silly because it’s made of human abilities. Comparing ourselves with AI is the equivalent of comparing ourselves with a car. It’s like saying a car can go faster than a human runner. Of course it can, and yet we don’t say that the car has become a better runner. The danger isn’t that a new alien entity will speak through our technology and take over and destroy us. The danger is that we’ll use our technology to become mutually unintelligible or to become insane if you like, in a way that we aren’t acting with enough understanding and self-interest to survive, and we die through insanity, essentially.”

AI-bullshit bingo

Voor ons project “AI-bullshit bingo” zijn we op zoek naar de beste AI-bullshit verhalen. Heb jij ergens iets gelezen, gezien of gehoord waar de sensationele scifi-onzin vanaf druipt? Laat het ons weten via info@setup.nl of mention @SETUPutrecht op Twitter of LinkedIn.