AI als wapen tegen corona: een les in bescheidenheid

AI als wapen tegen corona: een les in bescheidenheid
© Nastia Cistakova
3 apr – Leestijd 10 min

AI als wapen tegen corona: een les in bescheidenheid

Siri Beerends
Siri is cultuursocioloog en schrijver. Ze doet onderzoek naar authenticiteit en de manier waarop mensen en samenlevingen onder invloed van kunstmatige intelligentie meer op machines gaan lijken.

Kunstmatige intelligentie kan ons helpen, maar de ware uitdaging ligt in de politieke, economische en sociale systemen waarin wij leven. Het coronavirus laat zien waarom we bescheiden moeten zijn over de maakbaarheidsbelofte van populaire technologieën.

Luister als podcast

De verwachtingen van AI zijn in de afgelopen jaren zo hoog gestegen, dat het niet lang kon duren voordat de bubbel zou barsten. AI-experts spreken over een AI-winter. Wat moeten we ons voorstellen bij zo’n AI-winter? En wat kunnen we ervan leren dat van pas komt bij pandemieën zoals het coronavirus?

AI Winter                                                                               

Een AI-winter is een periode waarin technologische grenzen aan het licht komen en journalisten hun utopische en dystopische AI scenario’s temperen. Daardoor kunnen we met meer realisme kijken naar wat AI in werkelijkheid voor ons betekent.

Zo beginnen we te beseffen dat de AI-revolutie waarbij slimme robots al het werk overnemen er heel anders uitziet dan de tech-elite in Silicon Valley ons heeft voorgehouden. De AI-systemen die artsen, advocaten, journalisten, onderzoekers en taxichauffeurs overbodig zouden maken zijn nergens te bekennen. In plaats daarvan kregen we surveillerende AI-systemen die dicteren hoe wij ons werk moeten doen.

Ondertussen zetten artsen, rechters en wetenschappers massaal in op hybride intelligentie: AI gaat hun werkzaamheden niet vervangen, maar aanvullen.

Door ons blind te staren op futuristische AI-scenario’s, hebben we geen oog voor de manier waarop AI onze samenleving verandert.

Terwijl zij onderzoeken hoe zo'n constructieve samenwerking eruit ziet, worden werknemers uit lagere sociaal-economische klassen in magazijnen, hotels en callcenters onderworpen aan AI-systemen die hun werkzaamheden intensief monitoren en ontmenselijkende beoordelingscriteria opleggen.

Een voorbeeld is het AI-systeem Callminer dat gesprekken van callcenter medewerkers beoordeelt met empathie-scores. Medewerkers ontdekten dat de score omhoog gaat als zij het woord 'sorry' heel vaak gebruiken. In een anoniem interview vertelt een medewerkster dat de kwaliteit van haar werk achteruit gaat omdat ze wordt opgejaagd door een rigide AI-systeem dat kunstmatige sorry's afdwingt.

Door ons blind te staren op futuristische AI-scenario’s hebben we geen oog voor de manier waarop AI onze samenleving daadwerkelijk verandert. Want terwijl Musk en Zuck ons probeerden te verleiden met science-fiction sprookjes, werden we klaargestoomd voor een carrière als dataproducerende beeldschermzombie om de kas van het surveillance kapitalisme te spekken.

Als het aan data-ethicus Luciano Floridi ligt, moeten de Elon Musketeers van deze wereld hun excuses hiervoor aanbieden. Hun futuristische praatjes leiden af van echte AI-problemen zoals massa manipulatie, verlies van autonomie, uitbuitende verdienmodellen en algoritmische polarisatie. Om AI op een hoger plan te tillen moeten we afrekenen met onrealistische science-fiction verwachtingen. Deze zouden leiden tot een maatschappelijke desillusie die zinvolle AI-toepassingen kan belemmeren.

Onze huidige AI-methoden lopen tegen fundamentele beperkingen aan.

We hebben al eerder een AI-winter meegemaakt, bijvoorbeeld in de jaren tachtig toen kunstmatige intelligentie niet aan haar beloften kon voldoen. De huidige AI-winter gaat niet alleen over valse beloften en misleiding, maar ook over de praktische grenzen waar AI tegenaan loopt.

Kwetsbaar, inefficiënt en kortzichtig

Hoewel het onderzoek naar AI doorgaat, heeft dat de laatste jaren niet voor toepasbare grote veranderingen gezorgd. Veel hedendaagse toepassingen zijn variaties op hetzelfde trucje in een nieuw jasje. De wet van Moore die stelt dat de snelheid van onze computerchips blijft verdubbelen is achterhaald en er zijn al jaren geen fundamentele doorbraken geweest.

Volgens AI-experts zoals Gary Marcus en David Watson komt dat omdat onze huidige AI methoden –deep learning en deep neural networks– een aantal fundamentele beperkingen hebben.

© Nastia Cistakova
AI-expert Gary Marcus over de rol van de media bij onze overschatting van AI.

Deep neural networks (DNN’s) zijn AI-systemen die leren van data, geïnspireerd op de manier waarop menselijke hersenen problemen oplossen. David Watson legt uit dat DNN’s in vergelijking met menselijke intelligentie kwetsbaar, inefficiënt en kortzichtig zijn.

DNN’s zijn kwetsbaar omdat ze een hoge ‘spoofability’ hebben: voeg een beetje ruis toe aan een afbeelding en de systemen zien bananen aan voor broodroosters. Dat komt doordat ze een aantal fundamentele eigenschappen missen om goed te kunnen navigeren in de echte wereld.

Kinderen kunnen al op jonge leeftijd aan de hand van één ervaring betekenissen generaliseren naar andere contexten, voor AI is dat onmogelijk.

Naast kwetsbaar, zijn DNN’s ook inefficiënt qua energieverbruik en leervermogen. Als ouders hun kind willen leren wat een hond is, hoeven ze niet tienduizend keer te zeggen 'dit is een hond'. Kinderen kunnen al op jonge leeftijd aan de hand van één ervaring, betekenissen generaliseren naar andere contexten, terwijl dat voor DNN’s onmogelijk blijft.

Dat komt omdat de problemen die wij oplossen niet netjes zijn afgebakend. Deep learning -de methode waarmee computers leren op basis van grote hoeveelheden data- werkt alleen goed in stabiele omgevingen met onveranderlijke regels, zoals het bordspel Go.

Maar het leven is het tegenovergestelde van een spelletje Go: onze alledaagse wereld is chaotisch, tegenstrijdig en complex. Zo kon de kunstmatige intelligentie van Google Grieptrends epidemiologische gegevens voorspellen op basis van zoektrends, maar miste het de piek van het griepseizoen in 2013.

Omdat virusverspreiding zich ontwikkelt in een instabiele omgeving met veranderlijke regels, is het niet gek dat AI-systemen dit soort trends missen. Hoewel de systemen tegenwoordig toegang hebben tot meer soorten data, blijft het moeilijk om virussen te voorspellen.

De media schreeuwen van de daken dat AI met zijn voorspellende vermogens een krachtig wapen is tegen pandemieën. Maar is die hoge verwachting, met de lessen die we kunnen leren van de AI-winter, wel op zijn plaats?

AI als wapen tegen corona

In december waarschuwde een AI-systeem in Boston over de uitbraak van een virus dat later bekend zou worden als het coronavirus. Maar deze waarschuwing was niet sneller dan die van de menselijke experts, omdat het systeem de ernst van een pandemie niet kan beoordelen. Ook werd in de VS vorig jaar al voor een pandemie gewaarschuwd.

Computerwetenschapper Will Douglas Heaven verklaarde vorige week in MIT Technology Review:

De hype overschaduwt de realiteit. Te veel vertrouwen in AI-mogelijkheden kan leiden tot slecht geïnformeerde beslissingen en investeringen van publiek geld in onbewezen AI-bedrijven, ten koste van bewezen interventies zoals medicatie.

Een groot obstakel voor AI is dat het eindeloos veel data nodig heeft en niet alle informatie kan verwerken die we nodig hebben om een probleem goed te begrijpen.

AI werkt goed in stabiele omgevingen met onveranderlijke regels en betrouwbare data. De coronacrisis is daar het tegenovergestelde van.

Sommige AI-systemen doen corona voorspellingen op basis van nieuws- en social media berichten, maar deze zijn onbetrouwbaar omdat ze bol staan met desinformatie. Betrouwbare data over Covid-19 zijn schaars. Er zijn onvoldoende testen en er is onduidelijkheid over de symptomen, groepsimmuniteit, hoe het virus onderling wordt overgedragen, hoeveel mensen het hebben, of je het bij je kunt dragen zonder klachten, en de naleving en impact van social distancing.

Kortom: Covid-19 en alles wat het verloop daarvan beïnvloed is het tegenovergestelde van de stabiele omgeving met betrouwbare data die AI nodig zo hard nodig heeft om goed te kunnen presteren.

Ondertussen verschijnen artikelen waarin bedrijven claimen dat hun AI-software Covid-19 kan diagnosticeren aan de hand van CT-scans. Maar volgens Alexander Lundervold, expert op het gebied van machine learning en medische scans, zijn deze claims overtrokken. Er zijn te weinig betrouwbare trainingsdata en de fysieke tekenen van corona zijn pas na de infectie in de scans zichtbaar, waardoor de methode onbruikbaar is voor vroege diagnose. Toch wordt positief uitgekeken naar een neuraal netwerk genaamd COVID-Net, dat vorige week open access werd vrijgegeven. Onderzoekers hopen daarmee een AI-tool te ontwikkelen die mensen kan testen op Covid-19.

Privacy stresstest

Omdat AI-systemen afhankelijk zijn van kwalitatief hoogwaardige data, gaan steeds meer geluiden op dat we meer gezondheidsdata met bedrijven en overheden moeten delen.

De belofte dat we pandemieën kunnen bestrijden als we er maar genoeg data tegenaan smijten is misleidend.

Zo is de Autoriteit Persoonsgegevens tijdelijk minder streng op privacy, fantaseren tech-journalisten alvast over grafstenen met teksten als “Maar ze behield tot het einde haar privacy”, en zijn Amsterdammers begonnen met een app om gezondheidsdata te delen.

Dat gezondheid belangrijker is dan privacy klinkt logisch in tijden van crisis, maar het is een valse tegenstelling. Niet zozeer omdat we onze technologieën 'privacy-vriendelijk' kunnen ontwerpen, maar vooral omdat de belofte dat we pandemieën kunnen bestrijden als we er maar genoeg data tegenaan smijten, misleidend is. Roel Coutinho, arts, microbioloog en voormalig directeur van het Centrum Infectieziektebestrijding verklaarde in Buitenhof:

“Je zou graag willen denken dat je dit volledig kunt voorkomen, maar ik denk dat dit buitengewoon moeilijk is, omdat elke keer blijkt dat er allerlei onbekende factoren zijn waarvan we niet hadden gedacht dat ze een rol zouden spelen. Het is zo complex, het gaat over ecologie, het gedrag van mensen, en onvoorziene factoren. Elke epidemie is totaal anders.”

Roel Coutinho en Dick Heederik over het voorkomen van infecties van dieren op mensen.

Dat infectieziekten terug zijn te leiden naar overdrachten van dier op mens weten we al jaren. Onze omgang met de natuur en het industriële globalisme dragen daaraan bij. Ecologen wijzen erop dat we door houtkap, toegenomen mobiliteit, mijnbouw, intensieve veehouderij, bevolkingsgroei en snelle verstedelijking steeds vaker in contact komen met diersoorten die we voorheen nooit tegenkwamen. Daardoor kunnen virussen makkelijker overspringen. Ook zouden onder het smeltende ijs onbekende virussen huizen die door klimaatopwarming loskomen.

AI kan helpen bij het oplossen van problemen, maar de ware uitdaging is ecologisch en sociaal-economisch van aard.

Menselijk gedrag, besmettingsverloop en ecologische factoren zijn veranderlijk en hangen op een complexe manier samen. Hoeveel data we ook in onze AI-systemen stoppen, de beïnvloedende factoren en eigenschappen van pandemieën kunnen we niet allemaal tackelen met AI-modellen. Bovendien biedt big data surveillance geen antwoord op dieperliggende ecologische en sociaal-economische problemen.

Een belangrijk les uit de AI-winter is dat de ware uitdaging niet ligt in de intelligentie van onze technologische systemen, maar vooral in de schadelijke politieke, economische en sociale systemen waarin wij leven en de intelligentie van ons eigen gedrag. Neem bijvoorbeeld het vinden van een vaccin. AI kan hierbij helpen, maar de ware uitdaging ligt in de aanpak om de middelen op de juiste plekken te krijgen, de belabberde financiering van onderzoek, en de macht van big pharma die recepten onder de pet probeerde te houden. 

Paniekvoetbal

Privacy overboord gooien om het virus te temmen klinkt nobel, maar het is paniekvoetbal. In tijden van coronacrisis worden overhaaste beslissingen genomen waar we normaal gesproken -met goede redenen- jaren over doen.

Zo werkt het ministerie van Economische Zaken aan een plan waarmee overheidsdiensten en telecombedrijven locatiegegevens van klanten kunnen delen. Daarmee kan de overheid miljoenen burgers monitoren, bijvoorbeeld om potentiële besmettingslijnen te volgen en te controleren wie zich aan de regels voor sociale afzondering houden. Volgens critici is deze maatregel zinloos omdat mensen al besmettelijk zijn voordat ze symptomen krijgen, en we niet weten hoe lang ze besmettelijk blijven. De Autoriteit Persoonsgegevens wil een spoedwet om te toetsen wat de impact van deze tijdelijke maatregel zou zijn.

Overheden kijken momenteel naar China als succesverhaal.

Maar de geschiedenis laat zien hoe moeilijk het is om de impact van een tijdelijke maatregel te toetsen, en hoe naïef het is om te denken dat je extra surveillance later nog gemakkelijk kunt terugschroeven. Zo maakte de achteraf niet zo tijdelijke Patriot Act het mogelijk dat Amerikaanse burgers tot op de dag van vandaag makkelijker worden afgeluisterd. Momenteel is de VS in gesprek met big tech om gegevens van smartphones te verzamelen om het coronavirus te bestrijden. Deskundigen waarschuwen dat dit zal leiden tot een nieuwe Patriot Act die de wereld voorgoed kan veranderen.

Ook Israël timmert aan de weg. Daar heeft de overheid de geheime dienst toestemming gegeven voor een corona app die burgers in de gaten houdt. De software werd oorspronkelijk ontwikkeld voor het traceren van terroristen en Palestijnse minderheden. In China zijn vergelijkbare corona apps ontwikkelt in samenwerking met een Chinees staatsbedrijf dat een app ontwikkelde waarmee onderdrukte Oeigoeren worden gevolgd.

Overheden van liberale democratieën kijken momenteel naar China als succesverhaal. Hun massa-surveillance zou hebben bijgedragen aan de snelle bestrijding van het virus. Maar inmiddels vreest hat land vanwege nieuwe besmettingen en het achterhouden van sterftecijfers voor een tweede besmettingsgolf.

Onderdrukte groepen vrezen dat overheden en bedrijven hun surveillance-systemen na de coronapiek rechtvaardigen uit naam van gezondheid.

VN-chef Joseph Cannataci waarschuwde deze week voor de manier waarop tijdelijke corona surveillance onze vrijheid permanent kan aantasten. Hij wijst erop dat dictaturen vaak ontstaan tegen het licht van een gemeenschappelijke bedreiging.

Deze ontwikkelingen worden door minderheden en onderdrukte groepen dan ook met argusogen bekeken. Zij vrezen dat na de coronapiek, datahongerige regeringen en datahongerige techbedrijven hun ingrijpende surveillancesystemen voorgoed kunnen rechtvaardigen uit naam van gezondheid.

Lessen voor het post-corona tijdperk

Maar corona surveillance heeft meer met sociaal wantrouwen en data-economische belangen te maken dan met gezondheid. De belangrijkste les die we van deze AI-winter kunnen leren is dat kunstmatige intelligentie geen neutrale technologie is, maar een ideologie.

En niet zomaar een ideologie, maar een hele onbescheiden ideologie die gebaseerd is op grootheidswaan, dataïsme, surveillance kapitalisme, sociaal wantrouwen en een mechanische opvatting van intelligentie. In plaats van de oplossing te zoeken in AI, moeten we onze peilen richten op het doorgeslagen maakbaarheidsdenken en de manier waarop we onze sociaal-economische systemen inrichten.

Hoe aantrekkelijk het ook is om te denken dat we het leven volledig kunnen beheersen met massa-surveillance en technologie, het is een valkuil vol teleurstellingen. Want zoals gezondheidsrisico expert Dirk Heederik terecht verklaarde, die volledige beheersing is uiteindelijk -hoeveel privacy we ook overboord gooien- een illusie:

“We denken heel erg in controle. Dit virus treed nu op in een samenleving waarin we geen risico’s meer accepteren. We zouden dit met vaccinatie meer onder controle kunnen krijgen maar dit zijn gebeurtenissen die we niet kunnen uitsluiten of voorkomen. Het gaat weer gebeuren, we weten alleen niet wanneer.”

Ook de nuchtere microbioloog Bruno Verhasselt plaatst het temmen van pandemieën in een groter perspectief:

Het is een illusie dat je micro-organismen kunt tegenhouden. Het coronavirus heeft de sprong ­gemaakt van dieren naar mensen, het zal even duren voor we ons aan elkaar aanpassen. Het is belangrijk om verspreiding te ­vertragen, zodat de ziekenhuis capaciteit niet wordt overbelast en we zoveel mogelijk mensen kunnen redden. Maar je zal immuniteit moeten opbouwen, daarbij zullen mensen sterven. De ­impact op de mens zal vooral groot zijn door de niet-medische gevolgen.”

Surveillance uit naam van totale risico-uitbanning is net zo bedrieglijk onschuldig als het coronavirus zelf.

We leven in een wereld van veranderlijke factoren en complexe systemen. Deze werken niet volgens wetmatigheden, maar volgens een instabiele dynamiek. Dat vraagt niet om een rigide AI-aanpak gebaseerd op categorieën en labels, maar om een interdisciplinaire aanpak gebaseerd op ervaringen uit de echte wereld, cognitieve flexibiliteit, gezond verstand en contextbewuste kennis.

Een voorbeeld van een middel dat bij deze aanpak kan helpen is Sense Maker. Deze narratieve tool plaatst data in de context van ervaringsverhalen uit het crisisfront, en helpt daarmee overheden en bedrijven om contextbewuste inzichten te vergaren over de coronacrisis.

In het post-corona tijdperk zijn we hopelijk een lesje bescheidenheid rijker. Hoeveel rekenkracht en gezondheidsdata we er ook tegenaan smijten, ingrijpende levenstragiek, risico’s en onvoorspelbare gebeurtenissen blijven altijd onderdeel van het leven. Dat is zowel een vloek als een zegen. Een gesurveilleerd bestaan uit naam van totale risico-uitbanning is namelijk net zo bedrieglijk onschuldig als het coronavirus zelf.