Een aantasting van contextuele integriteit

Een aantasting van contextuele integriteit

Nieuws

Reactie op het wetsvoorstel van demissionair minister Schippers van Volksgezondheid om dna-databanken van ziekenhuizen in te kunnen zetten voor strafvorderlijke doeleinden.


Tijmen Schep woensdag 3 mei 2017
Inhoud: 

Vandaag kwam het wetsvoorstel van Schippers naar buiten om justitie toegang te geven tot de dna-banken van ziekenhuizen voor opsporing. De „moeder der slechte wetsvoorstellen”, noemde de Nederlandse Vereniging van Strafrechtadvocaten de plannen in het NRC. Inderdaad, en het artikel vraagt om een reactie vinden wij. 

Het voorstel doet allereerst onrecht aan het vertrouwen dat mensen aan de medische sector hebben gegeven. Privacy en vertrouwen zijn sterk verbonden. Om dit te begrijpen moeten we het concept "conextuele integriteit" begrijpen, van Helen Nissenbaum. Privacy, stelt ze, is een verwachting die iemand heeft die sterk afhangt van de context. Bij de dokter heb je bijvoorbeeld een andere verwachting van privacy dan bij de kapper. Je kapper klept alles door. En dat is niet eens heel erg, want dat weet je van tevoren. Privacy is dus is een culturele conventie, een norm, die per situatie verschilt.

 

Privacy als contextuele identiteit

Dit voorstel doorbreekt een maatschappelijke norm, en creert een vertrouwensbreuk door "kortsluiting" te maken tussen twee contexten, twee domeinen: zorg en justitie. Het is alsof je dokter ook ineens de buurtkapper wordt. Dan baal je dat je zoveel gedeeld hebt over je eeltknobbels, en dan ga je anders nadenken over wat voortaan je met je arts deelt. Tuurlijk, niet iedereen zal zijn gehele gedrag aanpassen. Maar het gaat vooral om het grijze gebied in het midden, waar mensen twijfelden om iets te delen en dat wel deden, maar dat nu misschien niet meer doen. Misschien durft een klokkeluider niet langer te delen wat zijn zwakke plek is (pinda allergie?). Misschien durft iemand uit een etnische minderheid niet langer te delen wat een genetische achtergrond is (iets dat belangrijker zal worden).

Misschien denk je nu "ach, in die voorbeelden loopt het wel los, ik kan geen situaties bedenken waarin ik mijn gedrag aan zou passen". Maar dat is het punt: het is schier onmogelijk om die situaties allemaal te voorzien. Vooral als je een blanke man of vrouw bent (net als ik).

Een beschaving beoordeel je niet op de manier waarop de meerderheid wordt behandeld, maar op de manier waarop de minderheden worden behandeld.

Computers maken fouten, want mensen maken fouten

Het enorme vertrouwen op biometische systemen is niet altijd terecht. In veel gevallen gaat het mis. Zo zie ik hoe in de data-broker wereld in 20% van de gevallen een beoordeling niet klopt. In een biometisch systeem kan dat beter zijn, maar het zal zeker niet 0 zijn. In de echte wereld hebben bureaucratie, misbruik, kennisgebrek, misconfiguratie, etc. etc. allemaal invloed. Dat is de realiteit.

Nu kan je zeggen "waar gehakt wordt vallen spaanders". Maar dat is een lullig iets om te zeggen. Vooral ook omdat deze misstanden veel moeilijker aan te pakken zijn door de mensen die de 'bijvangst' zijn. Juist omdat er zo enorm veel vertrouwen is in deze systemen moet je continu opboksen tegen dat vertrouwen. Want "computers liegen niet". Nee, maar ze maken wel allerlei fouten en verkeerde aannames. Ze zijn ook maar door mensen geprogrammeerd.

Het is zeer de vraag of we met big data de menselijke vooroordelen elimineren, of juist camoufleren met nieuwe technologie. — Cathy O’Neil in haar boek ''weapons of math destruction''

Het aanleggen dan biometrische databases voor dit soort doeleinden doet schade aan het principe van "onschuldig tot anders bewezen". Een systeem als dit maakt iedereen in zekere zin een verdachte. Persoonlijk geven dit soort systemen, hoewel ik een brave burger ben, een onvrij gevoel. En de vrijheid die ik in Nederland beleef is in zekere mate juist ook dat gevoel van vrijheid. Het gevoel dat we elkaar vertrouwen, dat is een sociaal kapitaal dat dit voorstel devalueert alleen al door er te zijn.

Misbruik

Een systeem als dit kan ook nieuwe vormen van misbruik oproepen. Juist omdat dit als een sterke vorm van bewijs wordt gezien, wordt het ook aantrekkelijk om deze systemen te misbruiken of misleiden. Zie ook Campbell's Law, die stelt dat hoe belangrijker een indicator wordt, hoe meer die zal worden misbruikt, gehackt, misleid, gefrituurd, etc.

Uitstraling

Je kunt zeggen "de dingen die je beschrijft zijn grote toekomstverhalen, maar dit is een heel klein, concreet project". Maar dat is niet eerlijk: een project als dit is ook een signaal naar de wereld toe. Het straalt veel breder uit. Zeggen dat het maar een klein, beheerst stapje is, is als zeggen "van dit ene pakje sigaretten ga ik geen kanker krijgen".

Elk privacy afkalvend project bouwt mee aan een trend. Bovendien is het makkelijker om privacy te verminderen dan te versterken. Instituten geven niet graag verworven macht op. Het zetten van elke stap moet dan ook zeer overwogen gebeuren.

Een project als dit heeft een niet weg te wuiven 'softere' maar zekere impact op het sociale klimaat. Wat zijn de kosten van het verlies van een gevoel van vrijheid bij innovatoren en minderheden? Wat is het gewicht van het risico dat een toekomstig despoot deze koppeling nog veel meer misbruikt, bijvoorbeeld door een moslim database te bouwen? Ik wou dat dit een distopisch toekomstverhaal was, maar dit soort overwegingen worden in Amerika echt gemaakt.

Tenslotte geeft een voorstel als dit, of het er door komt of niet, het signaal af dat het koppelen van dit soort databases uit verschillende domeinen volgens de overheid normaal is en 'moet kunnen'. Dat is een dubieus signaal om te geven, aangezien het bedrijfsleven hier extreem mee bezig is (en wat mij betreft al veel te ver gaat). Zo komen we bij:

Social Cooling

Mag ik iets geks zeggen? Misschien is dit mijn eigen blanke grachtengordel bubbel, maar ik maak me eerder zorgen dat criminaliteit teveel zal afnemen. Dat men te braaf wordt. 

Ik zie namelijk hoe het hele digitale ecosysteem een 'afkoelend' effect heeft op de maatschappij. Ons gedrag wordt in toenemende mate in digitale systemen gevangen. Deze data zorgt niet alleen voor op ons toegespitste reclames, ze heeft steeds meer invloed op onze kansen. Een prestigueuze opleiding, een goede baan, een goedkope lening, zelfs een leuke online date: dan hangt steeds meer af van allerlei scores die over je worden opgesteld op basis van alle kleine beetjes data die je deelt. Doordat deze algoritmische beoordelings-systemen niet transparant zijn maar wel invloedrijk worden, gaan mensen hun gedrag aanpassen. Ze worden braver, want ze hebben een goeie score nodig.

Extreem voorbeeld hiervan is China waar alle burgers een score krijgen die hun braafheid weergeeft, de zogenaamde 'social credit score'. Maar ook hier in het westen komen deze systemen op. Sommige zijn zichtbaar (je score op AirBNB bijvoorbeeld, of je score bij startups als Deemly), terwijl de meeste onzichtbaar (zoals bij Facebook en de vele databrokers, die soms wel 3000 scores per persoon hebben samengesteld).

Daar maak ik me zorgen om: dat we op de lange termijn te braaf worden. Dat is een gevaar voor een 'creatieve economie'. Zie ook mijn TEDx talk over wat ik nu "social cooling" noem. Langzaam bouwen we aan een cultuur waarin het nemen van risico wordt ontmoedigt.

Die braafheid is zelfs een gevaar voor de vooruitgang. Wie naar het verleden kijkt ziet dat ons concept van crimineel gedrag ook verandert. Het was niet heel lang geleden nog crimineel om als zwarte vrouw vooraan te gaan zitten in bus vol blanke mensen. Of dichter bij huis: het roken van wiet, dat was des duivels. Durf je je nog te verzetten tegen onrecht als je pakkans te groot wordt? Durf je nog te vechten voor nieuwe vrijheden?

Goed, dat argument gaat misschien ver, maar er zit een punt: burgers braaf houden zou in jullie weegschaal wat mij betreft iets minder zwaar mogen wegen. Een toename van braafheid is al een bijwerking van het leven in een data-wereld. Jullie hebben het tij al mee.

Conclusie

Samengevat denk ik dat tot nu toe in jullie afwegingen privacy te weinig heeft gewogen. Ik zou nog eens opnieuw de weegschaal erbij pakken.

Het geheel geeft me persoonlijk een erg onveilig gevoel. En dat is belangrijk: ethiek is vaak een gevoel dat iets niet goed zit. Vaak mag iets volgens de wet wel. Maar dat maakt het nog niet ethisch ok. Ik vind dit voorstel ethnisch gezien niet ok, en ik vermoed vanuit mijn ervaring met soortgelijke projecten dat het niet weloverwogen is gemaakt.

Ik begrijp dat de technologische capaciteiten een aantrekkingskracht uitoefenen, en dat er veel druk is om 'mee te doen met innovatie'. Maar in de 21e eeuw gaat politiek niet alleen om innoveren (hoe de Silicon Valley mensen ook jubelen), maar gaat het ook om het begrenzen van mogelijkheden die door nieuwe technologie zijn ontstaan, maar die schade kunnen doen aan het sociale weefsel.

Het opwerpen van ethische dijken die het panoptische springtij keren, dat is nou juist een taak voor de overheid.

Maar goed, ik weet natuurlijk niet echt hoe jullie afweging is gemaakt. Ik twijfel geen seconde dat die met de beste bedoelingen tot stand kwam. Maar vanuit mijn perspectief, van buitenaf, zie ik indicaties van een stereotype afweging en een kennisgebrek. Ik hoop dat deze bijdrage, en die van anderen, tot nieuwe inzichten en een nieuwe weging leiden.

Vergeet niet: privacy is zelf ook een vorm van veiligheid.