Der Hype um Chatbots hat laut Analysehaus Gartner bereits vor einiger Zeit seinen Höhepunkt erreicht. Inzwischen befinden wir uns in der „Talsohle der Desillusionierung“. Das ist die Phase, in der wir unsere hohen Erwartungen anpassen und Lehren aus den praktischen Erfahrungen und den aktuellen Erkenntnissen der Forschung ziehen sollten. Höchste Zeit also, einen kritischen Blick auf die Kundenerlebnisse mit Bots zu werfen.

Im Gespräch mit einem Roboter

Die Kommunikation zwischen Menschen und Maschinen wird von Kunden grundsätzlich als soziale Interaktionen wahrgenommen. Dass Chatbots in natürlicher Sprache kommunizieren können, hat den großen Vorteil der einfachen Verständlichkeit, führt aber auch dazu, dass Kunden ihre sozialen Normen und Erwartungen auf den Chatbot und die Interaktion mit diesem übertragen, da er sich durch die Nutzung menschlicher Sprache als soziales Gegenüber darstellt. Diese Zurechnung von menschlichen Attributen nennt man Anthropomorphismus. Wenn ein Kunde die Erwartungen, die er an eine persönliche Beratung richten würde, auf den Chatbot überträgt, kann er jedoch enttäuscht werden, was sich natürlich negativ auf seine Zufriedenheit auswirkt. Ein Blick auf die soziale Dimension der Kunden-Chatbot-Interaktion ist durchaus hilfreich, um potenzielle Fallstricke zu identifizieren.

Die Wirkung der Menschlichkeit auf Kunden

Die Forschung hat bereits gezeigt, dass Kunden Chatbots im Allgemeinen umso stärker vertrauen, umso menschlicher diese dargestellt werden. Der Aufbau einer menschlichen Persona erhöht nicht nur die Vertrauenswürdigkeit von Bots, sondern auch die grundsätzliche Gesprächsbereitschaft des Kunden und damit auch deren Zufriedenheit. Weiterhin wurden unterschiedliche Persönlichkeitstypen im Umgang mit Chatbots untersucht. Dabei wurde klar, dass Menschen mit einem hohen Maß an Grundvertrauen Interaktionen mit Chatbots häufiger akzeptierten als Vertreter des anderen Extrems. Um die Kunden, denen dieses hohe Maß an Grundvertrauen fehlt, ebenfalls zu erreichen, erscheint es noch wichtiger, den Chatbot möglichst human erscheinen zu lassen.

Dass (Digital-)Versicherer wie Lemonade – deren Kerngeschäft das Vertrauen von Versicherten erfordert – ihre Chatbos beispielsweise mit dem Namen Maya sowie einem Profilbild einer sympathischen Frau versehen, scheint vor diesem Hintergrund nicht überraschend. 

Die spannendsten Chatbot-Anbieter im Überblick!

Das New Players Network hat im Rahmen seiner regelmäßig erscheinenden InsurTech-Übersicht erstmals auch diese Anbieter beleuchtet und stellt sie mit einem Kurzprofil vor.

Der nette Bot von nebenan

Die Forschung konnte zeigen, dass sich die Compliance-Rate auch bei sympathischen Chatbots erhöht. Immer dann, wenn der Bot als sozialer Akteur dargestellt wird, wenn also menschliche Kommunikationsformen wie Smalltalk, Ausdrücke von Empathie oder Grußformeln integriert werden, steigt die Wahrscheinlichkeit, dass Kunden den Aufforderungen von Chatbots entsprechen. Weiterhin wurde nachgewiesen, dass die Foot- In-The-Door-Technik auch in der Kundenkommunikation mit einem Chatbot wirkt. So haben Kunden beispielsweise eine höhere Bereitschaft, einer Kaufaufforderung durch einen Chatbot zu folgen oder Schadenfälle detailliert zu dokumentieren, wenn sie vorher eine kleine Bitte erfüllt haben, wie zum Beispiel den Chatbot für seinen Service zu bewerten. Ein sympathisch klingender Frauenname, ein freundliches Profilbild und eine nette Ansprache – all das zahlt sich aus, bei der Programmierung ihres Algorithmus der Anwendung.

Mensch oder Maschine – das ist hier die Frage

Aber kann die Vermenschlichung von Chatbots hinsichtlich der Kundenzufriedenheit auch über das Ziel hinausschießen? Ein in der klassischen Robotikforschung viel diskutiertes Phänomen ist das sogenannte Uncanny Valley. Auch wenn die Zuneigung zu einem Objekt generell mit dessen Menschlichkeit steigt, kann beobachtet werden, dass Objekte, die Menschen zu ähnlich werden, ein Gefühl der Abneigung erzeugen. Die Theorie wird häufig herangezogen, um negative Rezensionen zu Animationsfilmen wie „Final Fantasy“ zu erklären, weshalb Filmstudios wie Pixar versuchen, zu menschenähnliche Darstellungen zu umgehen. Abseits der Leinwand führen beispielsweise Handprothesen oder hochentwickelte Androiden – wie beispielsweise der Roboter Sophia – bei vielen Betrachtern zu Unsicherheit und Antipathie. Mithilfe dieser Theorie kann auch die häufig vertretene Phobie vor Clowns erklärt werden, die Individuen nicht trotz sondern gerade wegen ihrer Menschenähnlichkeit einen kalten Schauer über den Rücken laufen lassen. Dieser schlagartige Einbruch der Vertrauenswürdigkeit bei einem solchen feinen Widerspruch sollte in der Programmierung und Außendarstellung eines Bots beachtet werden. Wenn der Chatbot als solcher nach außen zu erkennen ist, sollte er also besonders mit Blick auf die Menschlichkeit keine Perfektion anstreben.

Vor diesem Hintergrund untersuchten Forscher, welchen Einfluss es hat, wenn Chatbots durch Avatarbilder und Namen als menschliche Personen dargestellt werden. Dabei untersuchten sie weiterhin, wie die Nutzer reagieren, wenn sie nicht darüber informiert werden, ob es sich um einen Bot oder eine tatsächliche Person handelt. Sie gingen davon aus, dass Gespräche mit Chatbots unbehaglich seien, wenn die Nutzer vorher informiert wurden, mit einem Menschen zu reden. Es zeigte sich jedoch, dass die Sympathie der Nutzer gegenüber Chatbots davon gänzlich unbeeinflusst blieb. Dass die Nutzer also keinen Uncanny-Valley-Effekt hatten, lag vor allem daran, dass sie anhand der im Gespräch gesammelten Informationen eindeutig entscheiden konnten, ob es sich um ein menschliches Gegenüber handelt oder nicht. Selbst die hochentwickeltsten Chatbots – auch mit Bild und Namen versehen – können ihre Nutzer also nicht davon überzeugen, dass es sich bei ihnen um Menschen handelt.

Für Versicherer bedeutet dies, dass sich die transparente Darstellung eines Bots, beispielsweise um einer zu starken Vermenschlichung entgegenzuwirken, nicht negativ auf das Kundenempfinden auswirkt und andersherum. Weiterhin können Versicherer die Angst, einen zu realistischen Chatbot integriert zu haben, der die Kunden erschaudern lassen könnte, vorerst vernachlässigen.

 

Quellen:

Müller, Lea & Mattke, Jens & Maier, Christian & Weitzel, Tim & Graser, (2019). Chatbot Acceptance: A Latent Profile Analysis on Individuals‘ Trust in Conversational Agents. 35-42. 10.1145/3322385.3322392.

Adam, , Wessel, M., & Benlian, A. (2020). AI-based Chatbots in Customer Service and their Effects on User Compliance. Electronic Markets. https://doi.org/10.1007/s12525-020-00414-7

Rina Diane Caballar: „What Is the Uncanny Valley?“, 11.2019, online unter: https://spectrum.ieee.org/automaton/robotics/humanoids/what-is-the-uncanny- valley

Skjuve, Marita & Haugstveit, Ida & Følstad, Asbjørn & Brandtzaeg, (2019). Help! Is my chatbot falling into the uncanny valley? An empirical study of user experience in human-chatbot interaction. Human Technology. 15. 30-54. 10.17011/ht/urn.201902201607.

Bild: Photo by Markus Spiske on Unsplash, 12.06.2020

 

Blog abonnieren und keinen Beitrag verpassen!

Max Krause
New Players Network
Max Krause ist Community Architect beim New Players Network, einer Initiative der Versicherungsforen Leipzig. Zu seinen Hauptaufgaben gehört das Scouten von spannenden Start-ups der Finanz- und Versicherungsbranche.