Het Algoritmisch Historisch Museum: Algemeen Kiesrecht en Economische Waarde

Het Algoritmisch Historisch Museum: Algemeen Kiesrecht en Economische Waarde

Magazine
© SETUP / Dongwei

In het Algoritmisch Historisch Museum leggen we de bouwstenen van de technologie uit je eigen broekzak bloot: algoritmen. Top story


Floris Koster woensdag 18 oktober 2017
Inhoud: 

De belofte is dat algoritmen de wereld eerlijker, mooier en productiever maken. Algoritmen zijn immers gemaakt van pure wiskunde. Die kennen toch geen vooroordelen?

In dit artikel leggen we de bouwstenen van de technologie uit je eigen broekzak bloot: algoritmen. Dankzij slimme apparaten komen we bijvoorbeeld steeds meer te weten over gezondheid en het functioneren van de mens door nieuwe toepassingen van ICT, biotechnologie, sensoren en robotica. Neem de FitBit als voorbeeld, die op basis van algoritmen jouw lichaam kan monitoren. Klinkt als een vooruitgang in de wetenschap. Toch staat de Volkskrant de laatste tijd vol met negatieve berichten over deze revolutionaire technologieën. We zouden onze privacy weggeven en we zouden er afhankelijk en kwetsbaar van worden. Oke, maar wie heeft er dan gelijk?

Algoritmisch Historisch Museum

In het Algoritmisch Historisch Museum laten we dit oordeel aan de bezoeker zelf over. Binnen het wetenschappelijke- als publieke discours bestaan al enorm veel uiteenlopende standpunten die je kan innemen wat betreft de impact van media op onze samenleving. Toch is het vaak vrij lastig om een oordeel te vellen over de technologie die je zelf dagelijks gebruikt. Daarom pogen we door middel van een kleine geschiedvervalsing je tot kritisch nadenken over deze technologieën. Ons museum behandelt drie cruciale momenten in de Nederlandse geschiedenis uit de 18e, 19e en 20e eeuw. Vandaag nemen we je mee naar het einde van de 19e eeuw. Welkom in Appingedam.

19e eeuw: Algemeen Kiesrecht en Economische Waarde

Historische fictie

Eén van de grootste politieke vraagstukken in de 19e eeuw was op welke wijze het kiesrecht moest worden uitgebreid. Bij de Grondwetsherziening van Thorbecke in 1848 werden rechtstreekse verkiezingen voor de Tweede Kamer ingevoerd: het censuskiesrecht. Burgers die een minimumbedrag aan directe belastingen betaalden mochten stemmen: wie betaalt, bepaalt.

Vrouwen mochten dus niet stemmen en maar een klein deel van de mannen. Rond 1890 was de strijd tussen voor- en tegenstanders van uitbreiding van het kiesrecht fel. Antirevolutionair minister de Savornin Lohman was tegenstander, maar besloot desondanks een commissie in te stellen die de consequenties van uitbreiding moest onderzoeken.

De commissie, onder leiding van Hein-Jan Donner, kwam met het voorstel om in één kiesdistrict een soort pilot te houden bij de eerstvolgende verkiezingen. In deze pilot mochten zowel mannen als vrouwen stemmen. Niet elke stem had echter hetzelfde gewicht. Het stemgewicht (tussen 0 en 1) werd bepaald op basis van ‘algoritmisch voorspelde economische waarde’. Op 9 juni 1891 vond het experiment plaats in het kiesdistrict Appingedam.

Voor veel enthousiaste vrouwen in Appingedam volgde na het experiment al snel de kater. Wat op papier precies gelijk leek te zijn voor zowel mannen als vrouwen, bleek dat in de praktijk niet te zijn. Gemiddeld kregen vrouwen slechts één tiende van het stemgewicht van de mannen. Als de Donner-methode van lokaal experiment tot landelijke werkelijkheid was geworden, dan hadden vrouwen ook in 1922 nog geen volwaardige stem gehad. Of was het juist een stimulans geweest voor emancipatie op economisch vlak?

 

Foto uit het Algoritmisch Historisch Museum

Weapons of Math Destruction

Uiteraard moeten we het idee van een algoritmen tussen aanhalingstekens zetten, want in de volksmond wordt tegenwoordig met term algoritme vaak verwezen naar een digitale technologie. De naam algoritme kent echter een lange geschiedenis en is een verbastering van de naam Al-Khwarizmi. Deze Arabische wiskundige schreef in de negende eeuw een belangrijk boek over Indische getallen, genaamd ‘algebra’. Bij het vertalen van zijn werk naar het Latijn werd zijn naam verwesterd tot ‘algoritmi’. In de loop der tijd werd het woord algoritme een algemene term voor methoden die stap voor stap beschrijven hoe je een probleem oplost. Je kunt ze eigenlijk ook wel zien als een soort recept. En in relatie tot de verkiezingen in Appingedam werd het apparaat gebruikt als ‘recept’ voor een bepaalde stemwaarde. Het voordeel van zo’n apparaat laat is dat er geen tussenpersoon meer nodig is om iets als een stemwaarde uit te rekenen. Het maakt het neutraal, objectief en wiskundig beredeneerbaar. Toch leek dit idee niet helemaal te kloppen na de verkiezingen en kregen vrouwen over het algemeen een score van 0,1. Het stemapparaat was neutraal, dus hoe kan dat?

Om niet direct in allerlei wetenschappelijke discussies te belanden, houden we de definitie van een algoritme vrij eenvoudig: Algoritmen zijn (wiskundige) modellen die op basis van data allerlei berekeningen maken. Je komt ze overal tegen, zoals in je smartphone, op Facebook en in het zoeksysteem in de bibliotheek. Het is de software die bepaalt wat jij op je scherm te zien krijgt, en wat vooral ook niet. Het zijn modellen waar men niet aan durft te tornen. Ze worden namelijk gezien als objectief en neutrale beslissingsmakers, want ze zijn gemaakt van pure wiskunde. Wiskundige Cathy O'Neil is het daar echter niet mee eens en noemt algoritmen ‘weapons of math destruction’. In haar gelijknamige boek refereert ze naar algoritmen als ondemocratische modellen die ongelijkheid in de maatschappij juist groter zullen maken. Dat klinkt heftig. Maar hoe dan? Laten we eerst naar de urgentie kijken, om alvorens het probleem uit te leggen.

Overal, altijd - we zijn afhankelijk van ze

Het jaar 2008 was volgens Anthony Townsend, een van de voornaamste onderzoekers op het gebied van ‘smart technology’, in verschillende opzichten een kantelpunt. In dat jaar overtrof aantal draadloze internetgebruikers de mensen met een vaste internetverbinding en waren meer ‘dingen’ met elkaar verbonden dan dat er mensen op de wereld leven. Sinds 2008 is dit alleen maar toegenomen. Het internet, en daarmee vooral slimme apparaten, die op zijn beurt verbonden zijn met het internet, beginnen een vaste plek te krijgen in ons leven. Internet is niet meer virtueel maar is ingebed in ruimte en tijd. Overal om je heen zie je bijvoorbeeld smartphones, waar mensen tot vervelens toe op navigeren. Of denk aan Google Maps, we kunnen bijna niet meer zonder om op onze vakantiebestemming te komen. Aan de ene kant fantastische uitvindingen die ons leven werkelijk lijken te verbeteren. Maar aan de andere kant wellicht ook afleidend, tijdrovend en misschien wel het meest spannend: we worden er afhankelijk van. In april dit jaar schreven we dat technologie, in de vorm van algoritmen, zelfs tegen ons zouden kunnen keren. Maar hoe dan?

Algoritme, wat doe je nu?

Dr. Brent Mittelstadt van het Oxford Internet Institute onderzocht hoe algoritmen onethisch gedrag kunnen gaan vertonen. Om te begrijpen hoe algoritmen potentieel ethische implicaties kunnen hebben, moeten we ons volgens hem richten op drie aspecten van algoritmen: epistemische-, normatieve- en verantwoordelijkheidszorgen. Deze drie aspecten gaan in op respectievelijk de volgende vragen:

  1. Kan de mens de data die in een algoritme wordt gebruikt nog wel doorgronden?
  2. Begrijpt de mens nog wel hoe een algoritme écht werkt? 
  3. Wie is uiteindelijk eindverantwoordelijk voor het oordeel van een algoritme?

Het eerste aspect, de epistemische zorgen, refereert naar de manier waarop data verzamelt en aangeboden wordt aan een algoritmen. Data wordt vaak gezien als objectief, maar is dat vaak niet omdat de data bijvoorbeeld slechts een selectie is, of op een bepaalde manier (onwetend) gemanipuleerd is. In principe zou je alle data kunnen doorlopen op fouten, maar het gaat al snel om enkele tot duizenden datasheets. Het tweede aspect, de normatieve zorgen, gaat in op de manier waarop een algoritme data verwerkt. Volgens Mittelstadt hoeft een algoritme bijvoorbeeld helemaal niet neutraal te zijn. Ten eerste is een algoritme meestal zo complex en groot, dat hij wordt gemaakt door verschillende ontwikkelaars. En hoe vaak ze een algoritme ook testen, er is altijd de kans dat hij niet de juiste uitkomst geeft. Ten tweede wordt een algoritme ontwikkelt door mensen, waardoor er onbewust allerlei verwachtingen in worden verwerkt. Dit zagen we eerder al bij Google, die gezichtsherkenning waarschijnlijk vooral getest had met blanke mannen. Donkere mannen werden namelijk als gorilla herkend. Erg pijnlijk. Het derde aspect, de zorgen rondom de eindverantwoordelijkheid van een algoritme, refereert naar datgene wat er met de uitkomst van een algoritme gedaan wordt. Is een algoritme autonoom en bepaalt hij bijvoorbeeld zelf over jouw toekomst? En als dit fout gaat, wie is er dan verantwoordelijk?

Foto uit het Algoritmisch Historisch Museum

Algoritmen zijn ook maar menselijk

Mittelstadt laat zien dat er op enorm veel gebieden iets mis kan gaan met algoritmen. Hoewel we kunnen discussiëren over alle afzonderlijke details is zijn boodschap duidelijk. En dat is dat we niet vaak stil staan bij het feit dat technologieën, zoals algoritmen, uiteindelijk worden gemaakt door mensen, met al hun verwachtingen, vooroordelen en opvattingen. Daarom is het ook niet meer dan logisch dat bepaalde ‘fouten’ onvermijdelijk zijn. Een ramp? Nee hoor. Maar wel reden genoeg om kritisch te blijven kijken naar onze eigen maaksels. En als we dan terugkijken naar het stemapparaat uit Appingedam, dan zouden we kunnen beargumenteren dat het stemapparaat eigenlijk juist heel goed werkte. Het apparaat deed namelijk precies wat hij moest doen. Het apparaat was namelijk berust op het idee dat vrouwen in de maatschappij minder waarde hadden. Dat heeft het apparaat niet zelf bedacht, zo is hij gemaakt. Door mensen. En daarmee zijn technologieën, zoals algoritmen, ook maar menselijk.