Algoritmische besluiten ontrafelen

Algoritmische besluiten ontrafelen

Magazine

Na het Facebook fiasco staan profilingsalgoritmen eindelijk op de kaart bij een breder publiek. Tijd voor stap twee: algoritmische besluitvorming ontrafelen en de black box openen. Top story


Siri Beerends vrijdag 23 maart 2018
Inhoud: 

Deze week werd het nieuws gedomineerd door twee algoritmische incidenten:
via Facebook kwamen de gegevens van 50 miljoen Amerikanen in handen van de Trump-campagne en een zelfrijdende auto van taxibedrijf Uber reed een voetganger dood.

Profilingsalgoritmen in de spotlight

Facebook heeft haar gebruikers onvoldoende beschermd tegen de illegale verzameling van gebruikersgegevens door Cambridge Analytica. Daardoor kon het big-data bedrijf zijn profilingsalgoritmen inzetten om kiezers voorafgaand aan de Amerikaanse presidentsverkiezingen te verleiden op Trump te stemmen. Cambridge Analytica deed wat bedrijven tegenwoordig aan de lopende band doen. Ze manipuleren consumenten door zoveel mogelijk informatie te verzamelen en laten zich daarbij niet altijd beperken door de grenzen van de wet. Dankzij het voorval werd heel journaal kijkend Nederland getrakteerd op een laagdrempelig filmpje dat in jip-en-janneke taal uitlegt wat een profilingsalgoritme is en hoe het werkt. Door middel van clusteranalyses kan Facebook mensen indelen in groepen met gemeenschappelijke kenmerken en de kans berekenen dat jij in bepaalde hokjes past. Kijkers werden erop gewezen dat Facebookgebruikers die in Rotterdam wonen en van tennis houden VVD reclames te zien krijgen, en gebruikers die geïnteresseerd zijn in sociale kwesties vooral Groen Links reclames te zien krijgen. Een Groen Linkser die van tennis houdt en een VVD'er met een interesse in sociale kwesties komt in de wereld van de stereotyperende profilingsalgoritmen niet voor.

Tijd voor stap twee

Het inzichtelijk maken van een profilingsalgoritme is een eerste stap naar bewustwording bij een breder publiek. Hopelijk volgen meer laagdrempelige journaal items die de werking van algoritmen inzichtelijk maken, want overheden en bedrijven besteden steeds meer beslissingen uit aan algoritmen zonder dat wij weten op welke manier geautomatiseerde beslissingen worden gemaakt en op basis van welke data. Onderzoekers waarschuwen voor een black-box samenleving waar niemand meer begrijpt op welke manier algoritmen besluiten nemen en hoe we kunnen ingrijpen.

Zo veroorzaakte de zelfrijdende auto van Uber afgelopen dinsdag een dodelijk ongeluk. Volgens Maarten Steinbuch, hoogleraar Automotive aan de Technische Universiteit Eindhoven, hebben de algoritmen de verkeerssituatie niet goed begrepen:

Dat is een van de problemen van deze technologie: de techniek moet ons nog gaan begrijpen. Een zelfrijdende auto kijkt om zich heen met camera’s en radarsysteem. Als op het trottoir een lantaarnpaal staat met vlak daarachter bijvoorbeeld een heel dun iemand, dan moet die auto snappen dat de lantaarnpaal niet kan oversteken, maar de persoon erachter wel.

Het ongeluk wordt door technici beschouwd als een leermoment waarmee we de algoritmen van het systeem kunnen perfectioneren. Steinbuch legt uit dat we meer metingen nodig hebben om ervoor te zorgen dat auto’s dit soort verkeerssituaties in de toekomst wel kunnen begrijpen.

Het streven naar technologische perfectie maakt dat we vergeten te kijken naar maatschappelijke factoren. Zo maken gedragsdeskundigen zich zorgen over de schuldvraag van het dodelijke ongeluk. Als bestuurder van een zelfrijdende auto heb je geaccepteerd dat de auto het stuur overneemt, maar wie is verantwoordelijk als het misgaat? De fabrikanten van zelfrijdende auto's leggen de verantwoordelijkheid bij de bestuurder, maar de bestuurder vertrouwt blind op de algoritmen waardoor hij minder alert is en niet kan anticiperen. Ook luchtvaartexperts constateren een afnemend anticiperend vermogen dankzij geautomatiseerde systemen. Afgelopen maand waren er meer vliegtuigongelukken omdat piloten hun vliegvaardigheden steeds minder goed beheersen.

In een vliegtuig kan een piloot -als hij zijn vaardigheden beheerst, bepalen wanneer hij de automatische piloot moet overnemen. Maar wanneer een geautomatiseerd systeem een black box is geworden, is het moeilijk om te bepalen wanneer en op welke manier een mens tijdig kan ingrijpen. We zien nu nog een duidelijk verschil tussen bijvoorbeeld politieagenten, de apparaten die zij gebruiken en het ICT-bedrijf dat de algoritmen ontwikkelt. Omdat deze werelden samensmelten komt de uitvoerende macht minder bij het individu, en meer in de apparaten zelf te liggen. We moeten voorkomen dat technici straks de enige mensen zijn die deze hedendaagse machine complexiteit nog kunnen begrijpen.

Niet alleen tech experts, maar ook andere mensen moeten kunnen meepraten, meedenken en meebepalen over onze toekomst.

Het transparanter maken van algoritmische besluitvorming draagt bij aan empowerment maar daarmee zijn we er nog niet. Het bekendmaken van de logica achter een algoritmisch besluit betekent niet dat iedereen deze logica ook meteen kan begrijpen. Daarom hebben we sprekende voorbeelden, metaforen en teksten nodig die algoritmische besluitvorming voor iedereen begrijpelijk maken. Zodat een breder publiek kan meebepalen of we steden, overheden, rechters en dokters willen die op basis van algoritmen het verkeer regelen, risicoburgers registreren, straffen bepalen en diagnosen vaststellen. Welke beslisslingen mogen algoritmen wel en niet voor ons maken?

Black box openen

Het NOS-journaal ontrafelt algoritmen pas wanneer het kwaad al geschied is, zoals na het Facebook fiasco gebeurde. Daarmee kunnen we ons niet wapenen tegen onwenselijke vormen van algoritmische besluitvorming. Gelukkig is het Civil Weapons of Math Retaliation team druk bezig met het openbreken van algoritmische black boxes.
Aan de hand van vier ontwerpende onderzoeken ontwikkelen zij middelen waarmee burgers, werknemers en consumenten zich kunnen wapenen tegen onwenselijke vormen van algoritmische besluitvorming vanuit overheden en bedrijven.

Omdat steeds meer bedrijven het selecteren van een geschikte nieuwe collega uitbesteden aan een algoritme, is een van de ontwerpende onderzoeken bezig met het ontrafelen van recruitment algoritmen. Zodat we straks precies weten op welke manier deze algoritmen sollicitanten uitlezen en classificeren. Daarmee geven we de autonomie graag terug aan de sollicitant, want waarom zouden algoritmen alleen in het voordeel van een werkgever ingezet mogen worden?

Contactgegevens: 
Emailadres