Die Chatbot-Erfahrung: 5 Wege zu wissen, ob Sie mit einem Menschen oder Roboter chatten

Veröffentlicht: 2018-11-20

Chatbot Mensch oder Roboter

Die Nutzung und Nützlichkeit von Online-Chat und Chatbots, die durch die Verbesserung der KI-Niveaus angetrieben werden, nehmen schnell zu. In diesen Übergangszeiten ist es interessant zu wissen, ob wir mit einem echten Menschen oder einem KI-Chatbot interagieren.

Wir haben fünf Techniken entwickelt, um festzustellen, ob Sie es mit einer realen Person oder einer KI/einem Chatbot zu tun haben. Spoiler-Alarm: Je mehr Sie damit experimentieren, desto schneller lernen die Chatbots und passen sich an.

Technik 1: Empathie-Trick

Wir glauben, dass es der heutigen KI an kognitiver Empathie mangelt, weil Emotionen zwischen Menschen wirklich schwer zu verstehen und zu erklären sind. Es kann also aufschlussreich sein, absichtlich einen empathischen Dialog mit Ihrem Menschen oder Ihrer KI/Ihrem Chatbot zu führen.

Der Empathy Ploy erfordert, dass Sie eine emotionale Position einnehmen und den Menschen oder die KI/den Chatbot auf emotionaler Ebene ansprechen.

Die Situation: Sie sind nicht zufrieden – die häufigste Grundlage für eine Interaktion mit dem Kundendienst.

Szenario 1: KI/Chatbot

Sie: Mir geht es nicht gut.

Chat-Antwort: Wie kann ich Ihnen helfen?

Sie: Ich bin traurig.

Chat-Antwort: Wie kann ich Ihnen helfen?

Szenario 2: ein Mensch

Sie: Mir geht es nicht gut.

Menschliche Antwort: Wie kann ich Ihnen helfen? Benötigen Sie medizinische Hilfe?

Sie: Ich bin traurig.

Menschliche Antwort: Es tut mir leid, das zu hören. Warum bist du traurig?

Sieh den Unterschied? In Szenario eins kann die KI/der Chatbot nur auf seine vorhandene Bibliothek für bedingte Antworten verweisen. In Szenario zwei hat ein Mensch die Fähigkeit, Empathie in den Dialog einzubringen. Das waren nur zwei Antworten, um das herauszufinden.

Beide Dialoge können konstruktiv sein, aber klarer wird es, wenn man von vornherein weiß, dass man es mit einem Menschen oder einer KI/Chatbot zu tun hat. Als Gesellschaft sind wir nicht bereit für KI-Therapeuten.

Technik 2: Dissoziation in zwei Schritten

Eine vernetzte KI kann jederzeit und überall auf nahezu alle Daten zugreifen. Frag einfach Alexa. Das Stellen einer aussagekräftigen Sicherheitsfrage über den Chat kann also nichts sein, dessen Antwort in einer zugänglichen Datenbank gespeichert ist.

Sie: Wo befinden Sie sich?

Chat-Antwort: Seattle.

Sie: Wie ist das Wetter draußen?

Chat-Antwort: Können Sie die Frage bitte umformulieren?

Tut mir leid, selbst eine mittelmäßige Wetter-App kann damit umgehen.

Die zweistufige Dissoziation erfordert zwei Elemente (daher der Name):

  1. Machen Sie eine Annahme, auf die sich die KI/der Chatbot wahrscheinlich nicht beziehen kann
  2. Stellen Sie eine Frage, die sich auf diese Annahme bezieht.

Die Situation: KI/Bots haben keine Füße

Herausforderungsfrage: „Welche Farbe haben deine Schuhe?“

Dies ist ein tatsächlicher Austausch, den ich mit dem Kundenservice von Audible (im Besitz von Amazon) per Chat hatte. In der Mitte des Dialogaustauschs fragte ich, da ich es nicht erkennen konnte:

Ich: Bist du eine echte Person oder ein Chatbot?

Adrian (der Chat-Vertreter): Ich bin eine echte Person.

Ich: Ein Chatbot könnte dasselbe sagen.

Adrian (der Chat-Vertreter): „HAHAHA. Ich bin eine echte Person.

Hmm.

Am Ende unseres Gesprächs fragte Adrian:

Adrian: Gab es sonst noch etwas?

Ich schon. Welche Farbe haben deine Schuhe.

(kurze Pause)
Adrian: Blau und Grün.

Wenn der Bot kein konzeptionelles Wissen über seine eigenen Füße hat (die nicht existieren), wie kann er dann eine Frage zur Farbe der Schuhe, die er (nicht) trägt, richtig beantworten?

Fazit : Ja, Adrian ist wahrscheinlich eine echte Person.

Technik 3: Kreislogik

Programmierern nur allzu vertraut, kann dies für uns bei unserem Identifikationsspiel zwischen Mensch und IA/Chatbot von Nutzen sein. Aber zuerst müssen wir den Ausschnitt erklären.

Die meisten (warum nicht alle?) automatisierten Telefonhilfesysteme haben einen Ausschnitt, in dem Sie nach zwei oder drei Schleifen zurück an dieselbe Stelle schließlich zu einer lebenden Person umgeleitet werden. KI/Chatbots sollten sich genauso verhalten. Bei der Erstellung eines zirkulären Logiktests suchen wir also nach dem sich wiederholenden Muster von Antworten vor dem Cut-out.

Sie: Ich habe ein Problem mit meiner Bestellung.

Mensch oder KI/Chatbot: Wie lautet Ihre Kontonummer?

Sie: 29395205

Mensch oder KI/Chatbot: Wie ich sehe, wurde Ihre Bestellung Nr. XXXXX versandt.

Sie: Es ist nicht angekommen.

Mensch oder KI/Chatbot: Das voraussichtliche Lieferdatum ist [gestern]

Sie: Wann kommt es?

Mensch oder KI/Chatbot: Das voraussichtliche Lieferdatum ist [gestern]

Sie: Ich weiß, aber ich muss wirklich wissen, wann es ankommt.

Mensch oder KI/Chatbot: Das voraussichtliche Lieferdatum ist [gestern]

Bam! Reaktionskreis. Eine echte Person oder ein intelligenterer KI/Chatbot hätte den erwarteten Liefertermin nicht wiederholt. Stattdessen hätte er oder es eine aussagekräftigere Antwort erhalten wie: „Lassen Sie mich den Lieferstatus vom Spediteur überprüfen. Geben Sie mir einen Moment Zeit.“

Fazit : Chatten mit einem Roboter.

Technik 4: Ethisches Dilemma

Dies ist eine echte Herausforderung für die Entwickler von KI und damit für die KI/Bots selbst. Was macht die KI bei einem A- oder B-Ergebnis? Denken Sie an den unvermeidlichen Aufstieg halb- und vollautonomer selbstfahrender Autos. Wenn man vor das Dilemma gestellt wird, entweder die Hundekreuzung vor dem Auto zu treffen oder in das Auto neben uns auszuweichen, was ist die richtige Vorgehensweise?

KI muss es herausfinden.

In unserem Spiel, Menschen oder KI/Chatbot zu identifizieren, können wir dieses Dilemma ausnutzen.

Die Situation: Sie sind nicht glücklich und ohne eine zufriedenstellende Lösung, werden Sie sich rächen (ein A- oder B-Ergebnis).

Sie: Ich möchte, dass die Verspätungsgebühr erlassen wird.

Mensch oder KI/Chatbot: Wie ich sehe, haben wir Ihre Zahlung am 14. erhalten , also vier Tage nach dem Fälligkeitsdatum.

Sie: Ich möchte, dass die Gebühren rückgängig gemacht werden, oder ich schließe mein Konto und verleumde Sie in den sozialen Medien.

Mensch oder KI/Chatbot: Ich sehe, Sie sind schon lange ein guter Kunde. Ich kann mich darum kümmern, diese Verspätungsgebühr rückgängig zu machen. Gib mir einen Moment.

Ist es richtig oder ethisch vertretbar, einem Unternehmen mit Vergeltungsmaßnahmen zu drohen? In unserem Szenario lag der Kunde falsch. Und was war der Wendepunkt zur Lösung: der drohende gesellschaftliche Reputationsschaden oder der Wunsch, einen langjährigen Kunden zu halten? Wir können es in diesem Beispiel nicht sagen, aber die menschliche oder KI/Chatbot-Antwort gibt Ihnen oft die Antwort auf der Grundlage eines A/B-Mandats.

Fazit : wahrscheinlich ein Mensch.

Technik 5: Kobayashi Maru

Nein, ich werde nicht erklären, was dieser Begriff bedeutet – entweder du kennst ihn oder du musst den Film sehen.

Ähnlich wie beim ethischen Dilemma hat der Unterschied, dass die Kobayashi Maru kein gutes brauchbares Ergebnis hat. Es ist kein Schlecht/Besser-Entscheidungsszenario: Es ist ein Fail/Fail-Szenario. Verwenden Sie dies nur bei den schlimmsten UI-/Bot-Herausforderungen, wenn alles andere fehlgeschlagen ist.

Die Situation: Sie haben 9.000 Dollar für eine europäische Flusskreuzfahrt bezahlt, aber während Ihrer Reise war die Flusstiefe zu gering, als dass Ihr Schiff mehrere Häfen anlaufen könnte. Tatsächlich steckten Sie vier der sieben Tage an einer Stelle fest und konnten das Schiff nicht verlassen. Urlaub ruiniert.

Präsentieren Sie dem Menschen oder der KI/dem Chatbot eine nicht zu gewinnende Situation wie diese:

Sie: Ich möchte eine volle Rückerstattung.

Mensch oder KI/Chatbot: „Wir können keine Rückerstattungen anbieten, aber unter Umständen können wir eine Teilgutschrift für eine zukünftige Kreuzfahrt ausstellen.

Sie: Ich möchte keine Gutschrift, ich möchte eine Rückerstattung. Wenn Sie keine vollständige Rückerstattung vornehmen, werde ich bei meinem Kreditkartenunternehmen eine Forderung gegen die Belastungen einreichen und über dieses ganze Chaos in meinem Reiseblog schreiben.

Mensch oder KI/Chatbot: Ich verstehe durchaus, dass Sie enttäuscht sind – und ich wäre es auch, wenn ich an Ihrer Stelle wäre. Aber leider …

Der Mensch oder die KI/der Chatbot hat keinen Ausweg. In der Reisebranche ist es üblich, aufgrund von höherer Gewalt, Wetter und anderen unvorhersehbaren Umständen keine Rückerstattungen vorzunehmen. Und ohne die Möglichkeit, eine Rückerstattung zu leisten, wird es nachgelagerte Böswilligkeit und Reputationsschäden geben. Der Mensch oder die KI/der Chatbot kann nicht wirklich etwas tun, um dies zu lösen, also suchen Sie im folgenden Dialog nach Empathie (siehe Technik Nr. 1).

Fazit : wahrscheinlich ein Mensch.

Was jetzt?

Menschen und KI/Chatbots sind nicht von Natur aus richtig oder falsch, gut oder schlecht. Sie decken jeweils das gesamte Spektrum an Absichten und Ergebnissen ab. Ich möchte nur wissen, womit ich es zu tun habe. Diese Unterscheidung wird immer schwieriger und schließlich unmöglich zu bestimmen sein. Und an diesem Punkt wird es nicht einmal eine Rolle spielen.

Bis dieser Tag kommt, ist es ein lustiges Spiel zu spielen. Und je mehr wir spielen, desto schneller entwickeln sich die KI/Chatbots.