聊天机器人体验:了解您是在与人类还是机器人聊天的 5 种方法

已发表: 2018-11-20

聊天机器人人类或机器人

由于人工智能水平的提高,在线聊天和聊天机器人的使用和实用性正在迅速增加。 在这些过渡时期,了解我们是在与真人还是 AI 聊天机器人进行交互是很有趣的。

我们开发了五种技术来确定您是在与真人打交道还是与 AI/聊天机器人打交道。 剧透警报:您对这些进行的实验越多,聊天机器人的学习和适应速度就越快。

技巧1:移情策略

我们认为今天的人工智能水平缺乏认知同理心,因为人类之间的情感真的很难理解和解释。 因此,有意识地与您的人类或 AI/聊天机器人进行善解人意的对话可能会很有启发性。

移情策略要求你建立一个基于情感的立场,并在情感层面吸引人类或人工智能/聊天机器人。

情况:您不开心——这是客户服务互动的最常见基础。

场景一:人工智能/聊天机器人

你:我不舒服。

聊天回复:有什么可以帮你的吗?

你:我很难过。

聊天回复:有什么可以帮你的吗?

场景2:一个人

你:我不舒服。

人类回复:有什么可以帮助你的吗? 您需要医疗帮助吗?

你:我很难过。

人类回复:我很遗憾听到这个消息。 你为什么伤心?

看到不同? 在场景一中,人工智能/聊天机器人只能引用其现有的条件响应库。 在场景二中,人类有能力在对话中注入同理心。 只需要两个回应就可以弄清楚。

任何一种对话都可以是建设性的,但如果你从一开始就知道你正在与人类或人工智能/聊天机器人打交道,它就会变得更加清晰。 作为一个社会,我们还没有为人工智能治疗师做好准备。

技巧 2:两步分离

连接的人工智能可以随时随地访问几乎任何数据。 问问亚历克萨。 因此,通过聊天提出有意义的挑战问题不可能是答案存在于可访问数据库中的任何事情。

你:你在哪里?

聊天回复:西雅图。

你:外面的天气怎么样?

聊天回复:你能改写一下这个问题吗?

抱歉,即使是平庸的天气应用程序也可以处理。

两步分离需要两个元素(因此得名):

  1. 做出人工智能/聊天机器人可能无法关联的假设
  2. 问一个与该假设相关的问题。

情况:人工智能/机器人没有脚

挑战问题:“你的鞋子是什么颜色的?”

这是我通过聊天与 Audible(亚马逊拥有)客户服务进行的实际交流。 对话进行到一半,由于无法辨别,我问道:

我:你是真人还是聊天机器人?

Adrian(聊天代表):我是一个真实的人。

我:聊天机器人可能会说同样的话。

阿德里安(聊天代表):“哈哈哈。 我是一个真实的人。

唔。

在我们谈话的最后,阿德里安问道:

阿德里安:还有别的吗?

我可以。 你的鞋子是什么颜色的。

(稍停)
阿德里安:蓝色和绿色。

如果机器人对自己的脚(不存在)没有概念知识,它如何正确回答有关它(不)穿的鞋子颜色的问题?

结论:是的,阿德里安可能是一个真实的人。

技巧 3:循环逻辑

程序员太熟悉了,这对我们识别人类与 IA/聊天机器人识别游戏很有用。 但首先,我们必须解释cut-out

大多数(为什么不是全部?)自动电话帮助系统都有一个切口,在两个或三个循环回到同一个地方后,你最终会被转移到一个活生生的人身上。 AI/聊天机器人的行为方式应该相同。 因此,在创建循环逻辑测试时,我们正在寻找的是在中断之前的重复响应模式。

你:我的订单有问题。

人类或人工智能/聊天机器人:您的帐号是多少?

你:29395205

人类或人工智能/聊天机器人:我看到您的订单#XXXXX 已发货。

你:还没到。

人类或人工智能/聊天机器人:预计交货日期为 [昨天]

你:什么时候到?

人类或人工智能/聊天机器人:预计交货日期为 [昨天]

你:我知道,但我真的需要知道它什么时候到。

人类或人工智能/聊天机器人:预计交货日期为 [昨天]

砰! 反应圈。 一个真实的人,或者一个更聪明的人工智能/聊天机器人,不会重复预期的交货日期。 相反,她/他或它会做出更有意义的回应,例如,“让我检查承运人的交付状态。 给我一点时间。”

结论:与机器人聊天。

技巧 4:道德困境

这对人工智能的开发者来说是一个真正的挑战,因此对人工智能/机器人本身也是一个挑战。 在 A 或 B 结果中,人工智能会做什么? 想想半自动和全自动自动驾驶汽车的必然发展。 当面临要么撞到车前的狗道或转向我们旁边的汽车的两难选择时,正确的做法是什么?

人工智能必须弄清楚。

在我们识别人类或人工智能/聊天机器人的游戏中,我们可以利用这个困境。

情况:您不高兴并且没有令人满意的解决方案,您将进行报复(A 或 B 结果)。

你:我想免收滞纳金。

人类或人工智能/聊天机器人:我看到我们在 14收到了您的付款,比到期日晚了四天。

你:我想要撤销指控,否则我将关闭我的账户并在社交媒体上抹黑你。

人类或人工智能/聊天机器人:我看到您长期以来一直是一个好客户。 我可以负责撤销滞纳金。 给我一点时间。

以报复威胁公司是否正确或合乎道德? 在我们的场景中,客户错了。 解决问题的转折点是什么:社会声誉受损的威胁或留住长期客户的愿望? 在此示例中我们无法判断,但人类或 AI/聊天机器人的响应通常会根据 A/B 指令为您提供答案。

结论:可能是人类。

技巧5:小林丸

不,我不会解释这个词的含义——你要么知道,要么需要看电影。

与道德困境类似,不同之处在于小林丸没有好的可行结果。 这不是一个糟糕/更好的决策场景:这是一个失败/失败的场景。 只有在所有其他方法都失败时,才在最可怕的 UI/bot 挑战中使用它。

情况:您支付了 9,000 美元的欧洲内河游轮,但在您的旅途中,河水深度太低,您的船无法停靠几个港口。 事实上,在 7 天中,有 4 天你被困在一个地方无法离开船。 假期毁了。

向人类或 AI/聊天机器人展示一个无法取胜的情况,如下所示:

你:我要全额退款。

人类或人工智能/聊天机器人:“我们无法提供退款,但在这种情况下,我们可以为未来的航行发放部分积分。

你:我不要信用,我要退款。 如果您不全额退款,我将向我的信用卡公司提出索赔,并在我的旅行博客上写下这整个混乱。

人类或人工智能/聊天机器人:我当然理解你很失望——如果我站在你的立场上,我也会失望的。 但不幸的是 …

人类或人工智能/聊天机器人没有出路。 旅游行业通常不会根据天灾、天气和其他不可预测的情况发放退款。 并且如果没有提供退款的能力,就会有下游的恶意和声誉受损。 人类或人工智能/聊天机器人真的无法解决这个问题,所以在随后的对话中寻找同理心(参见技巧 #1)。

结论:可能是人类。

现在怎么办?

人类和人工智能/聊天机器人本质上没有对错、好坏之分。 它们每个都涵盖了意图和结果的整个范围。 我现在只想知道我正在处理的问题。 这种区别将变得越来越困难,最终无法确定。 到那时,它甚至都无关紧要。

在那一天到来之前,这是一个有趣的游戏。 我们玩得越多,人工智能/聊天机器人发展得越快。