Betrokkenheid op de werkvloer meten met een algoritme: goed idee?

Betrokkenheid op de werkvloer meten met een algoritme: goed idee?

Magazine

Het algoritme van KeenCorp herkent zinsconstructies die iets zeggen over onze mate van betrokkenheid op de werkvloer. SETUP ging met het bedrijf en de ontwikkelaars van het algoritme in gesprek. Top story


Siri Beerends maandag 18 juni 2018
Inhoud: 

Het Rotterdamse bedrijf KeenCorp ontwikkelde een algoritme dat de betrokkenheid van werknemers meet door alle interne e-mails en chatberichten te doorzoeken op onbewuste taalpatronen die onzekerheid, ongemak of afkeuring aangeven.

Algoritmen die voor HR doeleinden worden ingezet worden door critici met argusogen bekeken: een 24/7 functioneringsgesprek waarbij het algoritme altijd over je schouder meekijkt, worden we daar blij van? Nee, zeggen de makers van het algoritme, en dat is ook helemaal niet wat ons algoritme doet. SETUP ging met KeenCorp in gesprek.

Betrokkenheid kwantificeren

Iemand die ongemakkelijk wordt bij een bepaald onderwerp probeert zich te distantiëren waardoor zijn betrokkenheid daalt. In plaats van, ‘daar moet ik iets aan doen’, formuleert hij zinnen als ‘daar moet wat aan gedaan worden’, waarbij onduidelijk blijft door wie en wanneer.

Dit type zinsconstructies en woordcombinaties geven ongemak, onzekerheid of afkeuring aan zonder dat mensen zich daar bewust van zijn. Het KeenCorp algoritme herkent deze zinsconstructies en zet ze om in een medewerkersbetrokkenheidscore: de KeenCorp Index.

Het KeenCorp algoritme kijkt niet naar wat mensen zeggen, maar naar hoe mensen iets zeggen en de manier waarop dat onderliggende emoties blootlegt. — KeenCorp Co-Founder Bruno Jakic

Maar laten de intenties achter taalgebruik zich wel zo gemakkelijk kennen en kun je deze überhaupt kwantificeren?

Als ik de zin ‘daar moet wat aan gedaan worden’ gebruik, dan doe ik dat misschien vanuit bescheidenheid over mijn eigen rol in plaats van een gebrek aan betrokkenheid.
En als ik een afkeurende zin uitspreek kan dat ook een positief doel dienen, bijvoorbeeld omdat ik een onwenselijke gebeurtenis op mijn werk bekritiseer. En wat als ik sarcasme gebruik of zelfspot? Het is nog maar de vraag of een algoritme dit soort contexten kan herkennen.

Volgens Bruno Jakic, die samen met Mark Mooij het algoritme ontwikkelde, zijn deze zorgen onterecht:

Individuele scores worden gemiddeld over honderden meetpunten per dag. Daarom is de invloed van één enkele uitspraak verwaarloosbaar klein.
Maar belangrijker is dat het KeenCorp algoritme niet kijkt naar wat mensen zeggen, maar naar hoe mensen iets zeggen en de manier waarop dat onderliggende emoties blootlegt. Taalpatronen die ongemak en een gebrek aan ‘buy-in’ aan een gemeenschappelijk doel aangeven, functioneren in alle contexten hetzelfde
, ongeacht cultuur.

Om deze reden is betrokkenheid volgens Jakic bij uitstek geschikt om te kwantificeren.

AVG proof

Bedrijven die het KeenCorp algoritme willen gebruiken vragen van te voren toestemming aan hun werknemers. Wie instemt, weet dat al zijn e-mails en chatberichten doorlopend worden gemeten.

De betrokkenheidscores zijn niet terug te traceren naar een individuele werknemer, enkel naar de verschillende groepen binnen een bedrijf. Deze hebben een minimale omvang van tien personen maar zijn meestal groter. Ook worden de e-mails en de scores van individuele werknemers nooit bewaard. Daarmee voldoen KeenCorp en de bedrijven die het algoritme gebruiken aan de hoogste privacy voorwaarden.

Dat is mooi maar privacy is niet de enige zorg in het ethische debat over algoritmen.
Op 25 mei organiseerde SETUP samen met het Rathenau Instituut het debat Leven met algoritmen waarin we met kunstenaars, wetenschappers, bedrijven en het publiek in gesprek gingen over de manier waarop algoritmen ons leven beïnvloeden en wat de Algemene Verordening Gegevensbescherming (AVG) regelt omtrent algoritmische besluitvorming.

Conclusie: algoritmen kunnen volledig AVG-proof zijn en tegelijkertijd een schadelijk effect hebben op de samenleving doordat ze verkeerde verbanden leggen en onderhevig kunnen zijn aan bias en feedback loops. Zolang we niet weten op welke manier een algoritme ons beoordeelt, kunnen we niet controleren of een algoritme ons op een rechtvaardige manier beoordeelt.

Het KeenCorp algoritme is er niet om werknemers te beoordelen maar om dialoog op de werkvloer te bevorderen. — KeenCorp CEO Hans Hemels

KeenCorp CEO Hans Hemels legt uit dat het KeenCorp algoritme er niet is om ons te beoordelen, maar om zichtbaarheid en dialoog op de werkvloer te bevorderen:

In grote bedrijven is er weinig inzicht in de werknemers. Ons algoritme zet werknemers op de kaart door trends van betrokkenheid en motivatie zichtbaar te maken. Bedrijven kunnen een koppeling maken tussen een bepaalde gebeurtenis en een opgaande of neergaande trend, en daarover in gesprek gaan.

Volgens Hemels kunnen managers de problemen niet langer aan de kant schuiven zodra voor iedereen in het bedrijf zichtbaar wordt wanneer een bedrijf in een tijdelijke dip zit.
De KeenCorp Index werkt op deze manier als een spiegel voor de manager.

E-mails in een frauduleuze bedrijfscultuur

Bij de ontwikkeling van het KeenCorp algoritme speelde Enron een belangrijke rol. Ontwikkelaars Bruno Jakic en Mark Mooij vonden in de boekhoudfraude bij het Amerikaanse energiebedrijf de ideale casus om hun software te testen. De interne e-mails van de hoogste managers bij Enron waren namelijk in de openbaarheid gekomen dankzij de rechtszaak tegen de CFO van Enron die in 2006 veroordeeld werd wegens fraude.

Het KeenCorp algoritme herkende een dalende betrokkenheid in het e-mailverkeer en wist nauwkeurig het moment aan te wijzen waarop de fraude begon. Doordat de managers van Enron afwijkende taalpatronen gingen gebruiken, gaven ze onbewust hun afkeer te kennen over wat er in hun bedrijf gebeurde. Deze afkeer was in de dagelijkse bedrijfsvoering onzichtbaar. Niemand trok openlijk aan de bel omdat torenhoge bonussen in het verschiet lagen. Het KeenCorp algoritme zou dit soort negatieve verborgen processen tijdig zichtbaar kunnen maken:

Het gaat bij ons algoritme niet om de individuele werknemer, maar om het klimaat en de dynamiek op de werkvloer waaruit je belangrijke informatie kunt halen. Ons algoritme legt drukmomenten bloot waardoor medewerkers eerder geneigd zijn om te frauderen. Wij kunnen die druk meten en daar een dialoog over stimuleren zodat bedrijven tijdig kunnen anticiperen.

What gets measured gets done

Het uitgangspunt van de KeenCorp Index is ‘what gets measured gets done’: wanneer de verbeterpunten zichtbaar worden kan daar iets aan gedaan geworden. Bedrijven zouden bijvoorbeeld de betrokkenheidsscores in de werkgangen kunnen ophangen zodat iedereen kan zien hoe het met het bedrijf gaat.

Volgens Hemels zouden bedrijven die niet transparant willen zijn over de tevredenheid en betrokkenheid van hun werknemers in de toekomst sneller onderuit gaan:

Juist vanwege de automatisering blijft slechts een beperkt aantal taken over voor mensen. Daardoor worden de mensen die deze taken uitvoeren een steeds belangrijkere vorm van kapitaal binnen een bedrijf. Het is dus noodzakelijk om te weten hoe het met die mensen gaat, hoe je ze betrokken houdt en wanneer en waarom ze afhaken.

Maar wie bepaalt hoe betrokken jij als werknemer moet zijn? Waar ligt de grens?
Er bestaat ook zoiets als werkbare onverschilligheid, waarbij een gematigde vorm van betrokkenheid juist functioneel kan zijn. Bijvoorbeeld bij zorgberoepen en empathische beroepen met een hoog burn-out risico. KeenCorp zegt hierover:

In groepen waar hoge betrokkenheid geen vereiste is, is een lage score geen probleem. We kijken naar trends in de tijd. Als een trend dalend is, dan is het de moeite waard om in gesprek te gaan.

Algoritmische schijnwerkelijkheid

Uit onderzoek blijkt dat mensen hun gedrag aanpassen zodra zij weten dat ze bekeken of gescreend worden. Wanneer medewerkers weten dat al hun e-mail en chatberichten door een algoritme worden beoordeeld, is de kans groot dat zij hun taalgebruik gaan aanpassen. Je kunt je dus afvragen of de inzage die de KeenCorp Index geeft wel zo natuurgetrouw is.

Misschien ontstaan er lijsten met woordcombinaties die je niet moet gebruiken omdat het algoritme anders een lage betrokkenheidscore berekent. Medewerkers kunnen taalpatronen die het risico in zich dragen om onzeker, ontwijkend en afkeurend over te komen bewust gaan vermijden om zo het algoritme te temmen. Ook is het mogelijk dat werknemers problemen niet meer durven te benoemen uit angst voor een negatieve betrokkenheidscore. Op deze manier creëert een algoritme een schijnwerkelijkheid die enkel sociaal wenselijk gedrag laat zien.

Je hebt er zelf geen voordeel bij om te ‘faken’. — KeenCorp Co-Founder Bruno Jakic

Jakic is bekend met het gevolg van feedbackeffecten en wijst erop dat mensen vaak minder controle hebben over de manier waarop ze overkomen dan ze vaak denken.
Zo blijkt uit psycho-linguïstisch onderzoek dat zelfs mensen die getraind zijn om bepaald taalgebruik te bezigen of te vermijden, uiteindelijk terug vallen in hun natuurlijke taalgebruik. 

Taalpatronen zouden onbewust werken waardoor je ze niet kunt sturen om het KeenCorp algoritme te bespelen. Volgens Jakic is daar ook geen enkele reden toe:

Het is juist goed dat mensen hun ongemak wél tonen. Want dan is het de verantwoordelijkheid van iedereen om de situatie te verbeteren. Je hebt er zelf geen voordeel bij om te ‘faken’.

Slecht geïmplementeerde meetsystemen

Toch begrijpt hij wel waarom sommige mensen hun algoritme met argusogen bekijken:

Mensen worden gebombardeerd met verkeerde vormen van meten, in de gezondheidszorg bijvoorbeeld, en in het onderwijs. Overal zijn slecht geïmplementeerde meetsystemen. En al die verhalen over data misbruik helpen ook niet.

Volgens KeenCorp bekijken critici het algoritme teveel vanuit een ‘ik word gemonitord’ invalshoek. Zelf beschouwen ze hun algoritme als een geavanceerd middel waarmee grote bedrijven die weinig inzicht in hun werknemers hebben, feedback kunnen ophalen om uiteindelijk hun bedrijf voor alle werknemers beter te maken.

Ook zijn ze erop gebrand dat hun systeem wordt ingevoerd volgens principes die voor alle privacygevoelige technologie zouden moeten gelden: volledige transparantie over hoe het werkt, openheid over het doel en duidelijke voordelen voor alle deelnemers.

Of medewerkersbetrokkenheid accuraat gevangen kan worden in een algoritme valt niet te controleren.

Een mooi streven maar algoritmen vallen onder het intellectuele eigendomsrecht waardoor bedrijven geen volledige openheid hoeven te geven over de manier waarop hun algoritmische modellen werknemers meten. Daarmee blijft het algoritme voor buitenstaanders een black box: zij weten niet welke variabelen er worden gebruikt, hoe deze worden gewogen en op grond waarvan het algoritme tot een hoge of lage betrokkenheidscore komt.

Of medewerkersbetrokkenheid accuraat gevangen kan worden in een algoritme valt dus niet te controleren.