Als algoritmen met ‘Mm-hmm’ beginnen te spreken

Als algoritmen met ‘Mm-hmm’ beginnen te spreken

Magazine

Vorige week presenteerde Google zijn digitale assistent Duplex. Het pratende algoritme klinkt als een mens en maakt moeiteloos een afspraak bij de kapper. Iets om enthousiast voor te klappen? Top story


Siri Beerends dinsdag 15 mei 2018
Inhoud: 

Op de ontwikkelaarsconferentie Google I/O werd vorige week met veel bombarie de digitale spraakassistent Google Duplex gepresenteerd. Google CEO Sundar Pichai liet het publiek een telefoongesprek horen waarin de digitale assistent een afspraak maakt voor een knipbeurt.

Mm-hmm

Het gesprek tussen de kapsalon medewerkster en het pratende algoritme ging over en weer tot ze een geschikte datum hadden gevonden. De menselijke manier waarop de digitale spraakassistent reageerde met verschillende intonaties, aarzelingen en 'Mm-hmm’s' maakte het publiek uitzinnig enthousiast. In de zaal werd opgetogen geapplaudisseerd voor deze grote stap voorwaarts in de artificiële intelligentie.

Ontwikkelaars doen graag hun best om technologie zodanig te ontwerpen dat het voor ons gemakkelijk is om de mechanische aspecten te vergeten en menselijke eigenschappen aan technologische producten toe te dichten. Er komen steeds meer robots en digitale assistenten op de markt die ons de indruk geven dat we te maken hebben met mensachtige machine’s die taal, redenerend vermogen, bewustzijn en emoties bezitten.
In plaats van schaapachtig mee te klappen, kunnen we ons beter afvragen of onze levens daar ook echt beter van worden.

Algoritmische misleiding

Spraakassistenten zoals Google Duplex begrijpen onze taal en emoties niet, ze simuleren dat ze onze taal en emoties begrijpen. Omdat deze simulaties steeds natuurgetrouwer worden en ‘Mm-hmm’ beginnen uit te kramen, projecteren we allerlei menselijke eigenschappen op artificiële intelligentie. Algoritmen kunnen weliswaar taal ontcijferen en produceren, maar begrijpen waarom iemand iets zegt en afwegen welke reactie je het beste kunt geven, kunnen ze niet. Voor zintuiglijke waarneming, overweging, begrip en empathie heb je immers een bewustzijn nodig en die hebben computers niet. Al doen techbedrijven hun uiterste best om ons de indruk te geven dat computers deze kenmerken wel hebben.

Uiteraard heeft Google voor een situatie gekozen waarin Duplex zich van haar beste kant kan laten zien. We krijgen niet te zien dat het natuurgetrouwe gespreksgehalte al snel verdwijnt wanneer de ontvanger het gesprek een andere wending geeft of complexere zinnen maakt. Digitale assistenten kunnen alleen uit de voeten met helder afgebakende taken en voorspelbare interacties. Ze zijn goed in gesprekken die efficiënt en doelmatig van aard zijn en kunnen menselijke intonaties, aarzelingen en uitdrukkingen simuleren. Maar waar is dat eigenlijk voor nodig?

Waarom moet een computer die een afspraak voor een knipbeurt maakt als een mens klinken? En waarom moet de kapster de indruk krijgen dat zij met een mens in plaats van een algoritme praat? Terwijl de bezoekers van het Google I/O congres nog zaten na te kwijlen, ontstond er al snel ethische discussie over de vraag of het wel eerlijk is om ons te laten converseren met een algoritme terwijl we dat niet weten.

Google liet daarop weten dat wanneer Duplex de consumentenmarkt op gaat, hij eerst kenbaar maakt dat hij een computer is wanneer hij iemand opbelt. Ironisch dat een spraakassistent waaraan miljarden zijn uitgegeven om hem als een mens te laten klinken, kenbaar maakt dat hij een computer is om te voorkomen dat wij denken dat hij een mens is. Als hij dat van te voren laat weten, waarom moet hij dan nog menselijke uitdrukkingen zoals 'ehm' en 'Mm-hmm' gebruiken?

Door een digitale assistent menselijk te laten klinken, worden we minder behoedzaam en geven we onze data makkelijker uit handen.

Google heeft een miljardenomzet en wil dat graag zo houden. Hoe meer taken wij uitbesteden aan het bedrijf, hoe meer zij te weten komen over onze gewoonten en behoeften.

Door een digitale assistent natuurlijk te laten klinken, worden we minder behoedzaam en geven we makkelijker onze data uit handen. Een menselijke stem dringt geruisloos onze levens binnen. Daardoor kan Google meer gegevens verzamelen waarmee ze zoekresultaten en reclames persoonlijk kunnen afstemmen. Maar wat als Duplex ook doktersafspraken voor ons gaat maken? Zijn onze gezondheidsgegevens dan voldoende beschermd?

Of Duplex zijn identiteit nou van te voren kenbaar maakt of niet, ons vertrouwen in sociale interacties zal hoe dan ook verminderen wanneer er spraakcomputers op de markt zijn die ons taalgebruik feilloos kunnen imiteren.

GETTING THING$ DONE

Op de conferentie galmde het Google motto 'getting things done' door de zaal:

Our vision for our system is to help you to get things done. It turns out a big part of getting things done is making a phone call. We are working hard to help users through those moments. Sixty percent of small businesses don’t have an online booking system. We think AI can help with this problem.

Problem? What problem? Sinds wanneer is het maken van een telefonische afspraak iets waar we doorheen geholpen moeten worden?

Het probleem is niet dat kleine bedrijven geen online boekingssysteem hebben.
Het probleem is dat het blijkbaar zover is gekomen dat mensen te druk of te lui zijn om een simpele telefonische afspraak te maken. Als het aan Google ligt moeten we ons daar te belangrijk voor voelen; als je echt iemand voorstelt heb je wel wat beters te doen. Zoals het dicht timmeren van je agenda en drie minuten tijd winnen doordat een spraakassistent je telefonische afspraken regelt.

We hebben Google Duplex helemaal niet nodig om things done te krijgen, het is eerder zo dat Google ons nodig heeft om data te krijgen en hun verdienmodel te waarborgen.