The Chatbot Experience: チャット相手が人間かロボットかを知る 5 つの方法
公開: 2018-11-20レベルの向上した AI によって強化されたオンライン チャットとチャットボットの使用と有用性は、急速に増加しています。 これらの過渡期に、私たちが実際の人間とやり取りしているのか、それとも AI チャットボットとやり取りしているのかを知ることは興味深いことです。
相手が実在の人物か、AI/チャットボットかを判断するための 5 つの手法を開発しました。 ネタバレ注意: これらを実験すればするほど、チャットボットの学習と適応が速くなります。
テクニック 1: 共感の策略
人間同士の感情を理解して説明するのは非常に難しいため、今日のレベルの AI には認知的共感が欠けていると私たちは考えています。 そのため、人間や AI/チャットボットとの共感的な対話を意図的に作成すると、明らかになる可能性があります。
共感策略では、感情に基づく立場を確立し、感情レベルで人間または AI/チャットボットにアピールする必要があります。
状況: あなたは満足していません。これは、カスタマー サービスとのやり取りの最も一般的な根拠です。
シナリオ 1: AI/チャットボット
あなた:気分が悪いです。
チャットの返信: どのようにお手伝いできますか?
あなた:悲しいです。
チャットの返信: どのようにお手伝いできますか?
シナリオ 2: 人間
あなた:気分が悪いです。
人間の回答: どうすればよいですか? 医療援助が必要ですか?
あなた:悲しいです。
人間の回答: 申し訳ありません。 どうして悲しいの?
違いを見ます? シナリオ 1 では、AI/チャットボットは既存の条件付き応答ライブラリのみを参照できます。 シナリオ 2 では、人間は対話に共感を注入する能力を持っています。 それを理解するのにたった2つの応答しかありませんでした。
どちらの会話も建設的ですが、最初から人間または AI/チャットボットとやり取りしていることを知っていれば、より明確になります。 社会として、私たちは AI セラピストの準備ができていません。
手法 2: 2 段階の関連付け解除
接続された AI は、ほぼすべてのデータにいつでもどこでもアクセスできます。 アレクサに聞いてみてください。 したがって、チャットで意味のある挑戦的な質問をすることは、アクセス可能なデータベースに答えが存在するものではありません.
あなた:どこにいますか?
チャットの返信: シアトル。
あなた:外の天気は?
チャットの返信: 質問を言い換えてもらえますか?
申し訳ありませんが、平凡な天気アプリでもそれを処理できます。
2 段階の関連付け解除には 2 つの要素が必要です (名前の由来):
- AI /チャットボットがおそらく関連付けることができない仮定を立てる
- その仮定に関連する質問をしてください。
状況: AI/ボットには足がありません
チャレンジ質問:「あなたの靴は何色ですか?」
これは、Audible (Amazon が所有) のカスタマー サービスとチャットでやり取りした実際のやり取りです。 対話のやり取りの途中で、見分けがつかなかったので、次のように尋ねました。
私: あなたは実在の人物ですか、それともチャットボットですか?
エイドリアン (チャット担当者): 私は実在の人物です。
私: チャットボットも同じことを言うかもしれません。
エイドリアン (チャット担当者): 「ハハハ。 私は実在の人物です。
うーん。
会話の最後に、エイドリアンは次のように尋ねました。
エイドリアン: 他に何かありましたか?
私:はい。 あなたの靴は何色ですか。
(少し休止)
エイドリアン: 青と緑。
ボットが自分の足 (存在しない) の概念的な知識を持っていない場合、履いている (いない) 靴の色に関する質問にどのように正しく答えることができるでしょうか?
結論: ええ、エイドリアンはおそらく実在の人物です。
テクニック 3: 循環ロジック
プログラマーにはあまりにもなじみ深いので、これは、人間と IA/チャットボットの識別ゲームの識別に役立ちます。 しかし、最初に、カットアウトについて説明する必要があります。
ほとんどの (なぜすべてではないのですか?) 自動化された電話ヘルプ システムには、同じ場所に 2 回または 3 回ループした後、最終的に生きている人に転送されるカットアウトがあります。 AI/チャットボットも同じように動作する必要があります。 したがって、循環論理テストを作成する際に探しているのは、カットアウト前の応答の反復パターンです。

あなた: 注文に問題があります。
人間または AI/チャットボット: アカウント番号は?
あなた: 29395205
人間または AI/チャットボット: ご注文の #XXXXX が発送されました。
あなた:まだ届いていません。
人間または AI/チャットボット: 配送予定日は [昨日] です
あなた:いつ届きますか?
人間または AI/チャットボット: 配送予定日は [昨日] です
あなた: わかっていますが、いつ到着するかを知りたいのです。
人間または AI/チャットボット: 配送予定日は [昨日] です
バム! 応答円。 実在の人物、またはよりスマートな AI / チャットボットであれば、予定された配送日を繰り返さなかったでしょう。 代わりに、「配送業者からの配送状況を確認させてください。 ちょっと待ってください。」
結論:ロボットとおしゃべり。
テクニック 4: 倫理的ジレンマ
これは、AI の開発者、つまり AI/ボット自体にとって大きな課題です。 A または B の結果で、AI は何をしますか? 半自動および完全自動運転の自動運転車の必然的な台頭について考えてみてください。 車の前を横切っている犬にぶつかるか、隣の車に曲がるかのジレンマに直面したとき、どちらが正しい行動ですか?
AIはそれを理解する必要があります。
人間または AI/チャットボットを識別するゲームでは、このジレンマを利用できます。
状況: あなたは幸せではなく、満足のいく解決策がなければ、報復します (A または B の結果)。
あなた:延滞料を免除してほしい。
人間または AI/チャットボット: 14日に支払いを受け取ったようですが、これは期日を 4 日過ぎています。
あなた: 請求を取り消すか、アカウントを閉鎖してソーシャル メディアであなたを中傷します。
人間または AI/チャットボット: 長い間、良い顧客でしたね。 その延滞料金を取り消すことができます。 少々お待ちください。
報復で会社を脅すことは正しいですか、それとも倫理的ですか? 私たちのシナリオでは、顧客が間違っていました。 そして、解決への転換点は何でしたか: 社会的評判が損なわれるという脅威か、それとも長年の顧客を維持したいという願望ですか? この例ではわかりませんが、人間または AI/チャットボットの応答は、多くの場合、A/B 命令に基づいて答えを提供します。
結論:おそらく人間。
技5:小林丸
いいえ、その用語の意味を説明するつもりはありません。知っているか、映画を見る必要があるかのどちらかです。
倫理的ジレンマと同様に、小林丸であるという違いは、実行可能な良い結果をもたらしません. これは悪い/より良い決定シナリオではなく、失敗/失敗のシナリオです。 これは、他のすべてが失敗したときに、UI/ボットの課題の最も深刻な場合にのみ使用してください。
状況: ヨーロッパのリバー クルーズに 9,000 ドルを支払いましたが、旅行中に川の水深が浅すぎて、船がいくつかの寄港地に行くことができませんでした。 実際、あなたは 7 日間のうち 4 日間、船から降りることができずに 1 つの場所で立ち往生していました。 休暇が台無しになりました。
人間または AI/チャットボットに、次のような勝てない状況を提示します。
あなた:全額返金してほしいです。
人間または AI/チャットボット: 「払い戻しはできませんが、状況によっては、将来のクルーズの一部クレジットを発行できます。
あなた: クレジットは必要ありません。払い戻しが必要です。 全額返金していただけない場合は、クレジット カード会社に請求に対する請求を行い、この混乱全体について旅行ブログに書きます。
人間または AI/チャットボット: あなたががっかりしているのは確かに理解しています。 しかし残念ながら …
人間または AI/チャットボットには抜け道がありません。 旅行業界では、不可抗力、天候、その他の予測不可能な状況に基づいて払い戻しを行わないのが一般的です。 また、払い戻しを行う能力がなければ、下流の悪意と評判の低下が発生します。 人間または AI/チャットボットは、これを解決するために実際には何もできないため、その後のダイアログで共感を探します (テクニック #1 を参照)。
結論:おそらく人間。
今何?
人間と AI/チャットボットは、本質的に正しいか間違っているか、良いか悪いかということはありません。 それらはそれぞれ、意図と結果の全範囲をカバーしています。 今のところ、私が扱っているものを知りたいだけです。 その区別を決定することはますます困難になり、最終的には不可能になります。 そしてその時点で、それは問題ではありません。
その日が来るまで、楽しいゲームです。 そして、プレイすればするほど、AI/チャットボットはより速く進化します.