The Social Dilemma: een wake-up call met twee gezichten

The Social Dilemma: een wake-up call met twee gezichten
© Daria Nepriakhina
19 okt – Leestijd 15 min

The Social Dilemma: een wake-up call met twee gezichten

Siri Beerends
Siri is cultuursocioloog en schrijver. Ze doet onderzoek naar authenticiteit en de manier waarop mensen en samenlevingen onder invloed van kunstmatige intelligentie meer op machines gaan lijken.

The Social Dilemma laat de kijker achter met een dubbel gevoel. Enerzijds is het een aangrijpende wake-up call met gevoel voor maatschappelijke urgentie. Anderzijds heeft de documentaire iets weg van een Black Mirror aflevering gesponsord door Big Tech 2.0.

Tien jaar geleden werd ik raar aangekeken als ik uitlegde waarom ik niet op social media zit en zonder smartphone leef. Als ik vertelde over filterbubbelbaden en smartphonezombies dan eindigde dat meestal in een bezorgde blik. Deed ik wel al aan stromend water, riolering en elektriciteit?

Dat is nu wel anders. Het tech-optimisme lijkt opgedroogd en nu onze voormalige tech-ontwerpers uit de vallei een boekje open doen over hun eigen creaties is het duidelijk: het is twee voor twaalf. Jawel, u hoort het goed. Onze tech-broeders zijn tot inkeer gekomen en luiden de noodklok. Zij gaan ons redden uit de klauwen van de gewetenloze dealers in gedragsvoorspellingen.

Hun intenties waren zò goed en de uitkomst toch zò klote.

Experts buiten de vallei waarschuwen al jaren voor de uitholling van onze democratie en het ontmenselijkende verdienmodel achter onze digitale wereld. Maar hun inzichten raakten geen gevoelige snaar bij het grote publiek.

Dat is bij The Social Dilemma wel anders. Het is niet alleen de Black Mirror bulldozer die ervoor zorgt dat de docu inslaat als een bom. We zijn ook onder de indruk van de voormalige tech-insiders die nu zelf aan de alarmbel trekken over hun eigen creaties. Zij kunnen het weten, zij waren erbij, zij zijn de echte experts. Toch?

Het technologie-kritische verhaal bepalen

Het zijn in de eerste plaats experts die jarenlang in een hermetisch afgesloten elite-bubbel hebben gewerkt aan de perfectionering van hun algoritmen, like-buttons en notificatie geluiden. Het historische besef dat technologie ondanks alle goede intenties altijd onbedoelde bijeffecten heeft, bestaat niet in deze bubbel.

Silicon Valley houdt zich immers niet bezig met geschiedenis. Zij houden zich bezig met geld (véél geld) en de vraag waar de bunker voor hun biljonairsclub moet staan. Dus toen critici begonnen te waarschuwen voor de uithollende effecten van de frictieloze gadgets uit de vallei, werden zij monddood gemaakt door hen te diskwalificeren als Luddites. En wanneer technologie-kritiek eenmaal is geframed als angst, technofobie en anti-vooruitgangsdenken, dan luistert niemand meer.

Daarom hebben we nu, hoe ironisch dat ook is, voormalige tech-insiders nodig om onze dovenmansoren weer te laten horen. Maar wie naar hen luistert hoort vooral hoe verwonderd ze zijn over het feit dat hun intenties zò goed waren en de uitkomst toch zò klote.

Voormalige tech-insiders maken een eenzijdige analyse van het probleem waardoor we de oplossing in de verkeerde hoek zoeken.

Hun wereldvreemdheid doet afvragen of zij de geschikte personen zijn om ons uit deze impasse te helpen. Tech-expert Maria Farrell waarschuwt dat als we de mensen die verantwoordelijk zijn voor onze tech-dystopie de controle laten houden over het kritische narratief, we nooit tot de bodem kunnen uitzoeken hoe en waarom we in deze situatie terecht zijn gekomen. Het gevaar is dat de ruimte voor mogelijke vervolgstappen daardoor verkleint.

MEER RUIMTE VOOR INSPRAAK
SETUP stapt naar de ICANN voor een wereldwijd .sorry topleveldomein. Dit moet dè plek worden waar we de glimmende PR-sorry's van de spijt hebbende tech-industrie om kunnen zetten in een handleiding voor verbetering. Zo krijgen meer mensen controle over het kritische narratief. Lees hier meer over .sorry.

Het is jammer dat de Sherry Turkles, Ruha Benjamins en Virginia Eubanks van deze wereld aanzienlijk minder podia en zakken vol geld kregen toen zij jaren geleden voor dezelfde problemen waarschuwden. Niet alleen omdat we dan van hun inzichten hadden kunnen leren, maar vooral omdat we nu achter een documentaire aanlopen waarin het probleem zo eenzijdig wordt geanalyseerd, dat we de oplossing in de verkeerde hoek zoeken.

Dader vs. slachtoffer frame

Volgens Tristan Harris en zijn voormalige tech-bro’s zijn de negatieve gevolgen van social media een direct gevolg van tech-bedrijven die met hun krachtige algoritmen de zwaktes van ons brein uitbuiten.

© Konstantin Bratishko

Met Black Mirror-achtige scenes laat The Social Dilemma zien hoe de tech-industrie marionetten van ons maakte die non-stop blijven klikken, liken en swipen terwijl zij alwetend aan de touwtjes trekken. Harris legt uit dat dit komt omdat wij reageren volgens miljoenen jaren oude, door de evolutie gevormde psychologische mechanismen. Wij zijn simpelweg slaven van ons eeuwenoude reptielenbrein.

Pas als de almachtige ontwerp-meesters hun technologie aanpassen, kunnen wij verlost worden van hun zonden.

Deze vorm van wat Miriam Rasch noemt "huis-, tuin- en keukendarwinisme", drukt de gebruiker automatisch in een passieve rol en de ontwerper in een actieve rol. Pas als de almachtige ontwerp-meesters hun technologie aanpassen, kunnen wij verlost worden van hun zonden.

Zo verklaren de tech-insiders dat big tech "jou beter kent dan wie dan ook". In werkelijkheid ligt dat genuanceerder. Big tech heeft miljoenen datapunten waarmee zij voorspellingen doen over jouw gedrag. Maar als die voorspellingen kloppen, dan komt dat niet doordat deze bedrijven jou door en door kennen, maar doordat ze bij voorbaat jouw keuzes en klikopties bepalen waardoor onvoorspelbaarheid afneemt. De beste manier om gedrag te voorspellen is simpelweg door het zelf vorm te geven.

Het gevaar van big tech is dan ook niet dat ze ons te goed kennen, maar dat ze ons niet kennen en claimen ons wel te kennen op basis van onze data. Op basis van deze data en de categorieën die hun algoritmen voor ons hebben vastgesteld, krijgen we al dan niet een lening, sollicitatiegesprek of aanbieding. Op deze manier vangen big data modellen niet zozeer onze werkelijkheid, maar vormen ze onze werkelijkheid.

In haar boek The Age of Surveillance Capitalism (2019) legt Shoshana Zuboff uit dat het grootste gevaar van theorieën die de mens reduceren tot een stimulus-respons machine, niet is dat ze niet kloppen maar dat ze uiteindelijk waar kunnen worden:

"The trouble with theories of behaviorism is not that they are wrong but that they could become true, that they actually are the best possible conceptualization of certain obvious trends in modern society. It is quite conceivable that the modern age -which began with such an unprecedented and promising outburst of human activity -may end in the deadliest, most sterile passivity history we have ever known."

Hoewel Zuboff en andere critici van het eerste uur zoals Jaron Lanier en Cathy O'Neil aan het einde van de documentaire aan het woord komen, hebben zij slechts een kleine bijrol om een aantal claims van de voormalige tech-insiders te bevestigen. De documentaire blijft daardoor hangen in het dader-slachtoffer frame.

Met dit frame wordt ons voorgehouden dat de tech-industrie een probleem heeft gecreëerd wat alleen zij met een "humaner" ontwerp van hun technologie kunnen oplossen. Zo timmeren reeds nieuwe Facebooks aan de weg die waarden zoals kindness als ontwerp uitgangspunt nemen. En ook Google gaat met de humane technologie wind mee, bijvoorbeeld door hun standaard schoonheidsfilters aan te passen. Ethics by design is daarmee een goed verkopend product van de hedendaagse tech-industrie geworden. Zij gaan straks met algoritmen bepalen of jouw social media posts wel aardig genoeg zijn.

Het probleem met een commercieel aangedreven moraalpolitie -of deze nu door een bedrijfsmatig algoritme of een menselijk verlengstuk daarvan wordt uitgevoerd- is dat de industrie dan kan definiëren wat goed en fout betekent. Daarbij gaan niet alleen culturele en historische context verloren, maar ook de intenties achter onze taal en ons vermogen om te relativeren. Sanne Kloosterboer legt dat uit met een voorbeeld in haar column over politiek correct taalgebruik:

"Toen zichtbaar werd dat mijn dochter meervoudig gehandicapt was, bezigden vooral oudere mensen de term ‘geestelijk gehandicapt’. Soms zeiden ze ‘ze is niet helemaal goed’. Vond ik dat erg? Nee, helemaal niet. Ik zag de welwillendheid erachter en wist dat ze gewoon wat politiek correcte afslagen gemist hadden. Ik voelde daarom ook niet de geringste aanvechting ze te verbeteren."

The Social Dilemma versterkt de macht van de tech-industrie omdat het narratief de betekenis van mens zijn versmalt.

Wanneer de tech-industrie aan de hand van hun technologie ontwerp kan bepalen wat humaan en inhumaan betekent, zal hun macht ondanks juridische regulering voortbestaan. The Social Dilemma versterkt deze macht, omdat het narratief voor de kijker eenzijdig invult wat menselijkheid en mens zijn betekent.

Zo legt Harris halverwege de documentaire uit dat wij met de "oude hardware" in ons brein, altijd 10-0 achterstaan op de AI-supercomputers van Silicon Valley. Deze zullen immers altijd meer data en meer rekenkracht bezitten dan de mens. Daarmee reduceert hij het leven van de mens tot een mechanistische aangelegenheid: wij hebben een gebrekkige computer in ons hoofd die wordt overtroffen door de kunstmatige intelligentie van dezelfde tech-bedrijven die onze gadgets maken.

Wij maken betere computers

Als we de macht van dataslurpende techbedrijven willen doorbreken, moeten we ons niet alleen losmaken van het verdienmodel achter onze digitale wereld, maar ook van de ideologie die hierachter schuilgaat. De ideologie van Silicon Valley kan het best worden samengevat aan de hand van de volgende logica:

  • Wij zijn ons brein;
  • Ons brein is een computer;
  • Silicon Valley maakt betere computers;
  • De spijt hebbende tech-industrie maakt betere computers.

Zolang wij er vanuit gaan dat ons brein een zwakke computer is, en de mens niets meer is dan zijn brein, blijven we afhankelijk van tech-giganten die onze data nodig hebben om hun computersystemen ''bovenmenselijk'' intelligent te maken. Pas als we deze cirkelredenering doorbreken kan er een gezondere machtsbalans ontstaan.

Daarom beginnen we bij de eerste twee veronderstellingen. In de wetenschap is al jaren discussie over de werking en aard van het menselijk brein. Hoe meer we erover te weten komen, hoe meer nieuwe vragen dat oproept.

Zo schrijft de Amerikaanse neurowetenschapper Alva Noë in zijn boek Wij zijn toch geen brein? (2012) dat wij meer dan ons brein zijn, omdat bewustzijn en persoonlijkheid niet in onze hersenen zitten. Bewustzijn is iets is wat we doen in dynamische interactie met de wereld om ons heen. Om het leven te kunnen ervaren, zijn we afhankelijk van de samenwerking tussen hersenen, lichaam en een betekenisvolle omgeving. Zonder deze verknoping kunnen we de wereld niet bewust ervaren.

Ook het derde punt is problematisch. Als we het leven beschouwen als een wedstrijdje rekenkracht en wiskundig modelleren dan heeft Harris helemaal gelijk: dan leggen we het af tegen de supercomputers van Silicon Valley. Maar niet alles wat mensen in het leven belangrijk vinden is berekenbaar of dataficeerbaar. Intelligentie is meer dan wiskundig modelleren.

De oplossing wordt te veel gezocht in de ontwerpvraag welk soort computers we willen.

Dat de rekenkracht van onze machines exponentieel is toegenomen, betekent niet dat intelligentie ook exponentieel is toegenomen. Rekenkracht is niet hetzelfde als intelligentie. Zo verklaart data-ethicus Luciano Floridi dat AI-systemen problemen oplossen zonder intelligentie. Computers kunnen taken succesvol uitvoeren zonder enige vorm van mentaal begrip, zintuigelijke waarneming, bewustzijn, empathie, creatieve associaties, persoonlijke intenties, gevoel voor betekenis en wijsheid. Ook AI-onderzoeker Meredith Broussard verklaart in haar boek Artificial Unintelligence, how computers misunderstand the world (2018) dat lerende machines weinig met intelligentie te maken hebben:

"When a machine learns it does not mean that the machine has a brain made out of metal. It means that the machine has become more accurate at performing a single, specific task according to a specific metric that a person had defined. This kind learning does not imply intelligence. (...) We should not rush to be governed by computational systems designed by people who don’t care about or don’t understand the cultural systems in which we are all embodied."

Volgens Broussard zijn we door onze verafgoding van de wiskunde, die tot ver in de geschiedenis valt terug te voeren, steeds meer gaan denken dat mensen met verstand van computers automatisch ook verstand hebben van de manier waarop samenlevingen werken.

Dit komt ook terug in The Social Dilemma. Hoewel de documentaire oog heeft voor de sociaal-culturele context waarin onze technologieën zijn ingebed, wordt de oplossing voornamelijk gezocht in de ontwerpvraag “welk soort computers willen we?”. En daarmee zijn we beland bij het vierde punt: de spijt hebbende tech-industrie belooft ons betere computers. Humanere computers met onbedoelde bijeffecten om precies te zijn.

In plaats van te vragen welk soort computers we straks willen, zouden we ons beter kunnen afvragen welk soort samenleving we straks willen: welke aspecten van ons leven willen we wel en vooral ook niet uitbesteden aan zogenaamde ''humane'' computerlogica? Wie profiteren daarvan? En waarom zijn we eigenlijk zo verknocht aan al die computers, algoritmen, AI-beloften en beeldschermen?

In plaats van te vragen wat technologie de mensheid aandoet (passief), moeten we vragen wat de mensheid technologie aandoet (actief).

Misschien heeft dat niet zozeer te maken met een grote boze tech-industrie die ons verslaafd maakt, maar zoals filosofie professor Nolen Gertz in zijn boek Nihilism & Technology (2018) beschrijft, met ons nihilistische verlangen om complexiteit en ongemakkelijkheid uit de weg te gaan. Willen wij eigenlijk wel mens zijn? Of willen we alle "moeilijke" kanten van het mens zijn, zoals bijvoorbeeld het maken van keuzes en het ervaren van sociale frictie, vermijden met behulp van technologie? In plaats van ons af te vragen "wat technologie de mensheid aandoet'' (passief), zouden we ons moeten afvragen wat de mensheid technologie aandoet (actief).

Quote uit Nihilism & Technology.

The Social Dilemma is een indrukwekkende documentaire die we kunnen omarmen als vertrekpunt voor kritisch bewustzijn. Maar wie verder kijkt blijft achter met een dubbel gevoel: is dit de weg voorwaarts of is het een redemption tour van de tech-industrie om zichzelf te herpositioneren in een kritisch wordende markt? Voor Maria Farrell is het duidelijk:

"The prodigal tech bro doesn’t want structural change. He is reassurance, not revolution. Just put the engineers back in charge, refocus on the original mission, get marketing out of the c-suite. Government “needs to step up”, but just enough to level the playing field." 

Laten we tech-excuses omzetten in een handleiding voor structurele verbetering: denk mee over het .sorry topleveldomein.

Is haar perspectief te streng en moeten we de voormalige tech-insiders uit The Social Dilemma een tweede kans geven?

Als we dat doen, dan moeten we eerst een ruimte creëren waarbinnen we de problematiek zoals in The Social Dilemma wordt geschetst, veelzijdiger kunnen duiden en scherper kunnen doorgronden.

De weg voorwaarts is niet als slaaf van ons reptielenbrein, maar als mede-ontwerper van onze onlife wereld. Met onze nihilistische worstelingen en creatieve vermogens, kunnen we deze brave nieuwe wereld wakker schudden en alternatieve toekomsten verbeelden voorbij het tech-solutionisme van de spijt hebbende tech-industrie.

Heb je na alle verhalen van berouwvolle tech-ontwerpers behoefte om samen verder te kijken hoe we hun excuses om kunnen zetten in een handleiding voor structurele verbetering? Meld je dan aan voor de .sorry ontwerpsessie op donderdag 22 oktober op de Dutch Design Week.