聊天機器人體驗:了解您是在與人類還是機器人聊天的 5 種方法

已發表: 2018-11-20

聊天機器人人類或機器人

由於人工智能水平的提高,在線聊天和聊天機器人的使用和實用性正在迅速增加。 在這些過渡時期,了解我們是在與真人還是 AI 聊天機器人進行交互是很有趣的。

我們開發了五種技術來確定您是在與真人打交道還是與 AI/聊天機器人打交道。 劇透警報:您對這些進行的實驗越多,聊天機器人的學習和適應速度就越快。

技巧1:移情策略

我們認為今天的人工智能水平缺乏認知同理心,因為人類之間的情感真的很難理解和解釋。 因此,有意識地與您的人類或 AI/聊天機器人進行善解人意的對話可能會很有啟發性。

移情策略要求你建立一個基於情感的立場,並在情感層面吸引人類或人工智能/聊天機器人。

情況:您不開心——這是客戶服務互動的最常見基礎。

場景一:人工智能/聊天機器人

你:我不舒服。

聊天回复:有什麼可以幫你的嗎?

你:我很難過。

聊天回复:有什麼可以幫你的嗎?

場景2:一個人

你:我不舒服。

人類回复:有什麼可以幫助你的嗎? 您需要醫療幫助嗎?

你:我很難過。

人類回复:我很遺憾聽到這個消息。 你為什麼傷心?

看到不同? 在場景一中,人工智能/聊天機器人只能引用其現有的條件響應庫。 在場景二中,人類有能力在對話中註入同理心。 只需要兩個回應就可以弄清楚。

任何一種對話都可以是建設性的,但如果你從一開始就知道你正在與人類或人工智能/聊天機器人打交道,它就會變得更加清晰。 作為一個社會,我們還沒有為人工智能治療師做好準備。

技巧 2:兩步分離

連接的人工智能可以隨時隨地訪問幾乎任何數據。 問問亞歷克薩。 因此,通過聊天提出有意義的挑戰問題不可能是答案存在於可訪問數據庫中的任何事情。

你:你在哪裡?

聊天回复:西雅圖。

你:外面的天氣怎麼樣?

聊天回复:你能改寫一下這個問題嗎?

抱歉,即使是平庸的天氣應用程序也可以處理。

兩步分離需要兩個元素(因此得名):

  1. 做出人工智能/聊天機器人可能無法關聯的假設
  2. 問一個與該假設相關的問題。

情況:人工智能/機器人沒有腳

挑戰問題:“你的鞋子是什麼顏色的?”

這是我通過聊天與 Audible(亞馬遜擁有)客戶服務進行的實際交流。 對話進行到一半,由於無法辨別,我問道:

我:你是真人還是聊天機器人?

Adrian(聊天代表):我是一個真實的人。

我:聊天機器人可能會說同樣的話。

阿德里安(聊天代表):“哈哈哈。 我是一個真實的人。

唔。

在我們談話的最後,阿德里安問道:

阿德里安:還有別的嗎?

我可以。 你的鞋子是什麼顏色的。

(稍停)
阿德里安:藍色和綠色。

如果機器人對自己的腳(不存在)沒有概念知識,它如何正確回答有關它(不)穿的鞋子顏色的問題?

結論:是的,阿德里安可能是一個真實的人。

技巧 3:循環邏輯

程序員太熟悉了,這對我們識別人類與 IA/聊天機器人識別遊戲很有用。 但首先,我們必須解釋cut-out

大多數(為什麼不是全部?)自動電話幫助系統都有一個切口,在兩個或三個循環回到同一個地方後,你最終會被轉移到一個活生生的人身上。 AI/聊天機器人的行為方式應該相同。 因此,在創建循環邏輯測試時,我們正在尋找的是在中斷之前的重複響應模式。

你:我的訂單有問題。

人類或人工智能/聊天機器人:您的帳號是多少?

你:29395205

人類或人工智能/聊天機器人:我看到您的訂單#XXXXX 已發貨。

你:還沒到。

人類或人工智能/聊天機器人:預計交貨日期為 [昨天]

你:什麼時候到?

人類或人工智能/聊天機器人:預計交貨日期為 [昨天]

你:我知道,但我真的需要知道它什麼時候到。

人類或人工智能/聊天機器人:預計交貨日期為 [昨天]

砰! 反應圈。 一個真實的人,或者一個更聰明的人工智能/聊天機器人,不會重複預期的交貨日期。 相反,她/他或它會做出更有意義的回應,例如,“讓我檢查承運人的交付狀態。 給我一點時間。”

結論:與機器人聊天。

技巧 4:道德困境

這對人工智能的開發者來說是一個真正的挑戰,因此對人工智能/機器人本身也是一個挑戰。 在 A 或 B 結果中,人工智能會做什麼? 想想半自動和全自動自動駕駛汽車的必然發展。 當面臨要么撞到車前的狗道或轉向我們旁邊的汽車的兩難選擇時,正確的做法是什麼?

人工智能必須弄清楚。

在我們識別人類或人工智能/聊天機器人的遊戲中,我們可以利用這個困境。

情況:您不高興並且沒有令人滿意的解決方案,您將進行報復(A 或 B 結果)。

你:我想免收滯納金。

人類或人工智能/聊天機器人:我看到我們在 14收到了您的付款,比到期日晚了四天。

你:我想要撤銷指控,否則我將關閉我的賬戶並在社交媒體上抹黑你。

人類或人工智能/聊天機器人:我看到您長期以來一直是一個好客戶。 我可以負責撤銷滯納金。 給我一點時間。

以報復威脅公司是否正確或合乎道德? 在我們的場景中,客戶錯了。 解決問題的轉折點是什麼:社會聲譽受損的威脅或留住長期客戶的願望? 在此示例中我們無法判斷,但人類或 AI/聊天機器人的響應通常會根據 A/B 指令為您提供答案。

結論:可能是人類。

技巧5:小林丸

不,我不會解釋這個詞的含義——你要么知道,要么需要看電影。

與道德困境類似,不同之處在於小林丸沒有好的可行結果。 這不是一個糟糕/更好的決策場景:這是一個失敗/失敗的場景。 只有在所有其他方法都失敗時,才在最可怕的 UI/bot 挑戰中使用它。

情況:您支付了 9,000 美元的歐洲內河遊船,但在您的旅途中,河水深度太低,您的船無法停靠幾個港口。 事實上,在 7 天中,有 4 天你被困在一個地方無法離開船。 假期毀了。

向人類或 AI/聊天機器人展示一個無法取勝的情況,如下所示:

你:我要全額退款。

人類或人工智能/聊天機器人:“我們無法提供退款,但在這種情況下,我們可以為未來的航行發放部分積分。

你:我不要信用,我要退款。 如果您不全額退款,我將向我的信用卡公司提出索賠,並在我的旅行博客上寫下這整個混亂。

人類或人工智能/聊天機器人:我當然理解你很失望——如果我站在你的立場上,我也會失望的。 但不幸的是 …

人類或人工智能/聊天機器人沒有出路。 旅遊行業通常不會根據天災、天氣和其他不可預測的情況發放退款。 並且如果沒有提供退款的能力,就會有下游的惡意和聲譽受損。 人類或人工智能/聊天機器人真的無法解決這個問題,所以在隨後的對話中尋找同理心(參見技巧 #1)。

結論:可能是人類。

現在怎麼辦?

人類和人工智能/聊天機器人本質上沒有對錯、好壞之分。 它們每個都涵蓋了意圖和結果的整個範圍。 我現在只想知道我正在處理的問題。 這種區別將變得越來越困難,最終無法確定。 到那時,它甚至都無關緊要。

在那一天到來之前,這是一個有趣的遊戲。 我們玩得越多,人工智能/聊天機器人發展得越快。