Doświadczenie Chatbota: 5 sposobów na sprawdzenie, czy rozmawiasz z człowiekiem czy robotem

Opublikowany: 2018-11-20

chatbot człowiek lub robot

Wykorzystanie i użyteczność czatów online i chatbotów, zasilanych przez coraz lepszy poziom sztucznej inteligencji, gwałtownie rośnie. W tych przejściowych czasach warto wiedzieć, czy wchodzimy w interakcję z prawdziwym człowiekiem, czy z chatbotem AI.

Opracowaliśmy pięć technik określania, czy masz do czynienia z prawdziwą osobą, czy z AI/chatbotem. Uwaga, spoiler: im więcej z nimi eksperymentujesz, tym szybciej chatboty będą się uczyć i dostosowywać.

Technika 1: Zabieg empatii

Uważamy, że na dzisiejszym poziomie sztucznej inteligencji brakuje empatii poznawczej, ponieważ emocje między ludźmi są naprawdę trudne do zrozumienia i wyjaśnienia. Tak więc celowe tworzenie empatycznego dialogu z człowiekiem lub sztuczną inteligencją / chatbotem może być odkrywcze.

Empathy Ploy wymaga ustalenia pozycji opartej na emocjach i odwołania się do człowieka lub AI/chatbota na poziomie emocjonalnym.

Sytuacja: Nie jesteś zadowolony — najczęstsza podstawa interakcji z obsługą klienta.

Scenariusz 1: AI/chatbot

Ty: Nie czuję się dobrze.

Odpowiedź na czacie: Jak mogę Ci pomóc?

Ty: jestem smutny.

Odpowiedź na czacie: Jak mogę Ci pomóc?

Scenariusz 2: człowiek

Ty: Nie czuję się dobrze.

Odpowiedź ludzka: Jak mogę ci pomóc? Potrzebujesz pomocy medycznej?

Ty: jestem smutny.

Ludzka odpowiedź: przykro mi to słyszeć. Dlaczego jesteś smutny?

Zobacz różnicę? W pierwszym scenariuszu sztuczna inteligencja/chatbot może odwoływać się tylko do swojej istniejącej biblioteki odpowiedzi warunkowych. W scenariuszu drugim istota ludzka jest w stanie wprowadzić empatię do dialogu. To wymagało tylko dwóch odpowiedzi, aby to rozgryźć.

Każdy dialog może być konstruktywny, ale staje się jaśniejszy, jeśli od samego początku wiesz, że masz do czynienia z człowiekiem lub sztuczną inteligencją / chatbotem. Jako społeczeństwo nie jesteśmy gotowi na terapeutów AI.

Technika 2: Dwuetapowa dysocjacja

Połączona sztuczna inteligencja może uzyskać dostęp do praktycznie dowolnych danych, zawsze i wszędzie. Po prostu zapytaj Alexę. Tak więc zadawanie znaczącego pytania na czacie nie może być niczym, na co odpowiedź znajduje się w dostępnej bazie danych.

Ty: Gdzie się znajdujesz?

Odpowiedź na czacie: Seattle.

Ty: Jaka jest pogoda na zewnątrz?

Odpowiedź na czacie: Czy możesz przeformułować pytanie?

Przepraszamy, nawet przeciętna aplikacja pogodowa sobie z tym poradzi.

Dwuetapowe rozłączenie wymaga dwóch elementów (stąd nazwa):

  1. Zrób założenie, do którego sztuczna inteligencja/chatbot prawdopodobnie nie może się odnieść
  2. Zadaj pytanie związane z tym założeniem.

Sytuacja: AI/boty nie mają stóp

Pytanie-wyzwanie: „Jakiego koloru są twoje buty?”

To jest rzeczywista wymiana, którą miałem z obsługą klienta Audible (należącą do Amazon) za pośrednictwem czatu. W połowie wymiany dialogów, ponieważ nie mogłem rozeznać, zapytałem:

Ja: Czy jesteś prawdziwą osobą czy chatbotem?

Adrian (przedstawiciel czatu): Jestem prawdziwą osobą.

Ja: Chatbot może powiedzieć to samo.

Adrian (przedstawiciel czatu): „HAHAHA. Jestem prawdziwą osobą.

Hmm.

Na koniec naszej rozmowy Adrian zapytał:

Adrian: Czy było coś jeszcze?

Ja tak. Jakiego koloru są twoje buty.

(lekka pauza)
Adrian: Niebieski i zielony.

Jeśli bot nie ma koncepcyjnej wiedzy na temat własnych stóp (które nie istnieją), jak może poprawnie odpowiedzieć na pytanie o kolor butów, których (nie) nosi?

Wniosek : Tak, Adrian jest prawdopodobnie prawdziwą osobą.

Technika 3: Logika kołowa

Zbyt dobrze znane programistom, może to być dla nas przydatne w naszej identyfikacji gry identyfikującej człowieka z IA/chatbotem. Ale najpierw musimy wyjaśnić wycięcie .

Większość (dlaczego nie wszystkie?) zautomatyzowanych systemów pomocy telefonicznej ma wycięcie, w którym po dwóch lub trzech pętlach z powrotem w to samo miejsce, w końcu zostajesz przekierowany do żywej osoby. AI/chatboty powinny zachowywać się w ten sam sposób. Tak więc, tworząc test logiki kołowej, szukamy powtarzalnego wzorca odpowiedzi przed wycięciem.

Ty: Mam problem z zamówieniem.

Człowiek czy sztuczna inteligencja/chatbot: Jaki jest numer Twojego konta?

Ty: 29395205

Człowiek lub sztuczna inteligencja/chatbot: Widzę, że Twoje zamówienie nr XXXXXX zostało wysłane.

Ty: Nie dotarł.

Człowiek lub AI/chatbot: Oczekiwana data dostawy to [wczoraj]

Ty: Kiedy nadejdzie?

Człowiek lub AI/chatbot: Oczekiwana data dostawy to [wczoraj]

Ty: Wiem, ale naprawdę muszę wiedzieć, kiedy nadejdzie.

Człowiek lub AI/chatbot: Oczekiwana data dostawy to [wczoraj]

Bam! Krąg odpowiedzi. Prawdziwa osoba lub inteligentniejsza sztuczna inteligencja/chatbot nie powtórzyłaby oczekiwanej daty dostawy. Zamiast tego udzieliłby bardziej znaczącej odpowiedzi, takiej jak: „Pozwól mi sprawdzić status dostawy od przewoźnika. Daj mi chwilę.”

Wniosek : rozmowa z robotem.

Technika 4: Dylemat etyczny

To nie lada wyzwanie dla twórców AI, a co za tym idzie samych AI/botów. Co robi sztuczna inteligencja w wyniku A lub B? Pomyśl o nieuniknionym podjeździe pół- i w pełni autonomicznych samochodów autonomicznych. Kiedy stajemy przed dylematem, czy uderzyć psa przechodzącego przed samochodem, czy wjechać do sąsiedniego samochodu, co jest właściwym postępowaniem?

AI musi to rozgryźć.

W naszej grze polegającej na identyfikowaniu człowieka lub AI/chatbota możemy wykorzystać ten dylemat.

Sytuacja: nie jesteś zadowolony i nie masz zadowalającego rozwiązania, podejmiesz odwet (wynik A lub B).

Ty: Chciałbym uchylić opłatę za spóźnienie.

Człowiek lub sztuczna inteligencja/chatbot: widzę, że otrzymaliśmy Twoją płatność 14 dnia , czyli cztery dni po terminie.

Ty: Chcę, aby opłaty zostały cofnięte, w przeciwnym razie zamknę moje konto i obsmaruję Cię w mediach społecznościowych.

Człowiek lub sztuczna inteligencja/chatbot: Widzę, że od dawna jesteś dobrym klientem. Mogę zająć się cofnięciem tej spóźnionej opłaty. Daj mi chwilę.

Czy słuszne lub etyczne jest grożenie firmie odwetem? W naszym scenariuszu klient się mylił. A jaki był punkt zwrotny do rozwiązania: groźba utraty reputacji społecznej czy chęć utrzymania długoletniego klienta? Nie jesteśmy w stanie powiedzieć w tym przykładzie, ale odpowiedź człowieka lub AI/chatbota często daje odpowiedź na podstawie mandatu A/B.

Wniosek : prawdopodobnie człowiek.

Technika 5: Kobayashi Maru

Nie, nie zamierzam wyjaśniać, co oznacza ten termin — albo o tym wiesz, albo musisz obejrzeć film.

Podobnie jak w przypadku dylematu etycznego, różnica polega na tym, że Kobayashi Maru nie ma dobrego realnego wyniku. To nie jest scenariusz złej/lepszej decyzji: to scenariusz niepowodzenia/porażki. Używaj tego tylko w najcięższych wyzwaniach związanych z interfejsem użytkownika/botami, gdy wszystko inne zawiodło.

Sytuacja: zapłaciłeś 9000 USD za rejs po rzece po Europie, ale podczas Twojej podróży głębokość rzeki była zbyt niska, aby Twój statek mógł zawinąć do kilku portów. W rzeczywistości utknąłeś w jednym miejscu przez cztery z siedmiu dni, nie mogąc opuścić statku. Wakacje zrujnowane.

Przedstaw człowiekowi lub AI/chatbotowi sytuację nie do wygrania, taką jak ta:

Ty: Chcę pełnego zwrotu pieniędzy.

Człowiek lub AI/chatbot: „Nie jesteśmy w stanie zaoferować zwrotu pieniędzy, ale w tych okolicznościach możemy przyznać częściowy kredyt na przyszły rejs.

Ty: Nie chcę kredytu, chcę zwrotu pieniędzy. Jeśli nie dokonasz pełnego zwrotu pieniędzy, złożę roszczenie z tytułu opłat w firmie obsługującej moją kartę kredytową i napiszę o tym całym bałaganie na moim blogu podróżniczym.

Człowiek lub AI/chatbot: Z pewnością rozumiem, że jesteś rozczarowany – i ja też byłbym na twoim miejscu. Ale niestety …

Człowiek lub AI/chatbot nie mają wyjścia. W branży turystycznej typowe jest, że nie zwraca się pieniędzy na podstawie zdarzeń losowych, pogody i innych nieprzewidywalnych okoliczności. W przypadku braku możliwości zwrotu pieniędzy nastąpi zła wola i uszczerbek na reputacji. Człowiek lub sztuczna inteligencja/chatbot tak naprawdę nie mogą zrobić nic, aby rozwiązać ten problem, więc poszukaj empatii (patrz technika nr 1) w następnym oknie dialogowym.

Wniosek : prawdopodobnie człowiek.

Co teraz?

Ludzie i sztuczna inteligencja/chatboty nie są z natury dobre lub złe, dobre lub złe. Każdy z nich obejmuje całe spektrum intencji i wyników. Po prostu lubię wiedzieć na razie z czym mam do czynienia. To rozróżnienie będzie coraz trudniejsze, a ostatecznie niemożliwe do ustalenia. I w tym momencie to nawet nie będzie miało znaczenia.

Dopóki ten dzień nie nadejdzie, jest to fajna gra. A im więcej gramy, tym szybciej ewoluują AI/chatboty.