Pengalaman Chatbot: 5 Cara Mengetahui Jika Anda Mengobrol dengan Manusia atau Robot
Diterbitkan: 2018-11-20Penggunaan dan utilitas chat online dan chatbots, yang didukung oleh peningkatan level AI, meningkat pesat. Selama masa transisi ini, menarik untuk mengetahui apakah kita berinteraksi dengan manusia sungguhan atau chatbot AI.
Kami telah mengembangkan lima teknik untuk menentukan apakah Anda berurusan dengan orang sungguhan atau AI/chatbot. Peringatan spoiler: semakin banyak Anda bereksperimen dengan ini, semakin cepat chatbot akan belajar dan beradaptasi.
Teknik 1: Taktik Empati
Kami percaya tingkat AI saat ini kurang dalam empati kognitif karena emosi di antara manusia sangat sulit untuk dipahami dan dijelaskan. Jadi, dengan sengaja membuat dialog empatik dengan manusia Anda atau AI/chatbot dapat mengungkapkannya.
Strategi Empati mengharuskan Anda untuk menetapkan posisi berbasis emosi, dan menarik bagi manusia atau AI/obrolan pada tingkat emosional.
Situasi: Anda tidak bahagia — dasar paling umum untuk interaksi layanan pelanggan.
Skenario 1: AI/chatbot
Kamu: Aku sedang tidak enak badan.
Balasan obrolan: Ada yang bisa saya bantu?
Kamu: aku sedih.
Balasan obrolan: Ada yang bisa saya bantu?
Skenario 2: seorang manusia
Kamu: Aku sedang tidak enak badan.
Balasan manusia: Bagaimana saya bisa membantu Anda? Apakah Anda memerlukan bantuan medis?
Kamu: aku sedih.
Balasan manusia: Saya menyesal mendengarnya. Kenapa kamu sedih?
Lihat perbedaannya? Dalam skenario satu, AI/chatbot hanya dapat merujuk pustaka respons bersyarat yang ada. Dalam skenario dua, manusia memiliki kapasitas untuk menyuntikkan empati ke dalam dialog. Itu hanya membutuhkan dua tanggapan untuk mencari tahu.
Dialog bisa konstruktif, tetapi menjadi lebih jelas jika Anda tahu Anda berurusan dengan manusia atau AI/chatbot sejak awal. Sebagai masyarakat, kami tidak siap untuk terapis AI.
Teknik 2: Pemisahan Dua Langkah
AI yang terhubung dapat mengakses hampir semua data, kapan saja dan di mana saja. Tanyakan saja pada Alexa. Jadi, mengajukan pertanyaan tantangan yang bermakna melalui obrolan tidak dapat berupa apa pun yang jawabannya berada di database yang dapat diakses.
Kamu : Dimana kamu berada?
Balasan obrolan: Seattle.
You: Bagaimana cuaca di luar?
Balasan obrolan: Bisakah Anda mengulangi pertanyaannya?
Maaf, bahkan aplikasi cuaca biasa-biasa saja dapat mengatasinya.
Disasosiasi Dua Langkah membutuhkan dua elemen (karena itu namanya):
- Buat asumsi yang mungkin tidak dapat dihubungkan oleh AI/chatbot
- Ajukan pertanyaan, terkait dengan asumsi itu.
Situasi: AI/bot tidak memiliki kaki
Pertanyaan tantangan: “Apa warna sepatumu?”
Ini adalah pertukaran aktual yang saya lakukan dengan layanan pelanggan Audible (dimiliki oleh Amazon) melalui obrolan. Di tengah-tengah pertukaran dialog, karena saya tidak dapat membedakan, saya bertanya:
Saya: Apakah Anda orang sungguhan atau chatbot?
Adrian (perwakilan obrolan): Saya adalah orang yang nyata.
Saya: Sebuah chatbot mungkin mengatakan hal yang sama.
Adrian (perwakilan obrolan): “HAHAHA. Saya orang yang nyata.
Hmm.
Di akhir percakapan kami, Adrian bertanya:
Adrian: Apakah ada hal lain?
Saya iya. Apa warna sepatumu.
(jeda sebentar)
Adrian: Biru dan hijau.
Jika bot tidak memiliki pengetahuan konseptual tentang kakinya sendiri (yang tidak ada), bagaimana ia dapat menjawab pertanyaan tentang warna sepatu yang (tidak) dikenakannya dengan benar?
Kesimpulan : Ya, Adrian mungkin adalah orang yang nyata.
Teknik 3: Logika Melingkar
Terlalu akrab bagi programmer, ini dapat berguna bagi kita dalam identifikasi game identifikasi manusia vs. IA/chatbot. Tapi pertama-tama, kita harus menjelaskan cut-out .
Sebagian besar (mengapa tidak semua?) sistem bantuan telepon otomatis memiliki jalan pintas di mana setelah dua atau tiga putaran kembali ke tempat yang sama, Anda akhirnya dialihkan ke orang yang hidup. AI/chatbots harus berperilaku dengan cara yang sama. Jadi, dalam membuat tes logika sirkular, yang kita cari adalah pola respons yang berulang sebelum cut-out.
Anda: Saya punya masalah dengan pesanan saya.
Manusia atau AI/chatbot: Berapa nomor akun Anda?
Anda: 29395205
Manusia atau AI/chatbot: Saya melihat pesanan Anda #XXXXX telah dikirim.
Anda: Itu belum tiba.
Manusia atau AI/chatbot: Tanggal pengiriman yang diharapkan adalah [kemarin]
Anda: Kapan itu akan tiba?
Manusia atau AI/chatbot: Tanggal pengiriman yang diharapkan adalah [kemarin]
Anda: Saya tahu, tetapi saya benar-benar perlu tahu kapan itu akan tiba.
Manusia atau AI/chatbot: Tanggal pengiriman yang diharapkan adalah [kemarin]
Bam! Lingkaran respon. Orang sungguhan, atau AI/chatbot yang lebih cerdas, tidak akan mengulangi tanggal pengiriman yang diharapkan. Sebagai gantinya, dia akan memiliki respons yang lebih bermakna seperti, “Biarkan saya memeriksa status pengiriman dari operator. Beri aku waktu sebentar.”
Kesimpulan : chatting dengan robot.
Teknik 4: Dilema Etis
Ini adalah tantangan nyata bagi para pengembang AI, dan oleh karena itu, AI/bot itu sendiri. Dalam hasil A atau B, apa yang dilakukan AI? Pikirkan tentang pendakian tak terelakkan dari mobil self-driving semi dan sepenuhnya otonom. Ketika dihadapkan pada dilema antara menabrak anjing yang menyeberang di depan mobil atau membelok ke mobil yang berdekatan dengan kita, tindakan mana yang benar?
AI harus mencari tahu.
Dalam permainan kami mengidentifikasi manusia atau AI/chatbot, kami dapat memanfaatkan dilema ini.
Situasi: Anda tidak senang dan tidak ada resolusi yang memuaskan, Anda akan membalas (hasil A atau B).
Anda: Saya ingin biaya keterlambatan dibebaskan.
Manusia atau AI/ chatbot : Kami melihat pembayaran Anda telah kami terima pada tanggal 14, yaitu empat hari setelah tanggal jatuh tempo.
Anda: Saya ingin tuduhan itu dibatalkan atau saya akan menutup akun saya dan mencoreng Anda di media sosial.
Manusia atau AI/chatbot: Saya melihat Anda telah menjadi pelanggan yang baik untuk waktu yang lama. Saya bisa mengurus pembalikan biaya keterlambatan itu. Beri aku waktu sebentar.
Apakah benar, atau etis, untuk mengancam perusahaan dengan pembalasan? Dalam skenario kami, pelanggan salah. Dan apa titik kritis untuk resolusi: ancaman kerusakan reputasi sosial atau keinginan untuk mempertahankan pelanggan lama? Kami tidak dapat memberi tahu dalam contoh ini, namun respons manusia atau AI/chatbot sering kali akan memberi Anda jawaban berdasarkan mandat A/B.
Kesimpulan : mungkin manusia.
Teknik 5: Kobayashi Maru
Tidak, saya tidak akan menjelaskan apa arti istilah itu — Anda mengetahuinya atau Anda perlu menonton filmnya.
Mirip dengan Dilema Etis, perbedaannya adalah Kobayashi Maru tidak memiliki hasil yang layak. Ini bukan skenario keputusan yang buruk/lebih baik: ini adalah skenario gagal/gagal. Gunakan ini hanya dalam tantangan UI/bot yang paling parah ketika semuanya gagal.
Situasi: Anda membayar $9.000 untuk pelayaran sungai Eropa, tetapi selama perjalanan Anda, kedalaman sungai terlalu rendah untuk kapal Anda untuk melakukan beberapa pelabuhan panggilan. Faktanya, Anda terjebak di satu tempat selama empat dari tujuh hari tidak dapat meninggalkan kapal. Liburan hancur.
Hadirkan manusia atau AI/chatbot dengan situasi yang tidak dapat dimenangkan seperti ini:
Anda: Saya ingin pengembalian dana penuh.
Manusia atau AI/obrolan: “Kami tidak dapat menawarkan pengembalian uang, tetapi dalam keadaan tertentu, kami dapat mengeluarkan kredit sebagian untuk pelayaran di masa mendatang.
Anda: Saya tidak ingin kredit, saya ingin pengembalian dana. Jika Anda tidak mengeluarkan pengembalian dana penuh, saya akan mengajukan klaim terhadap tagihan tersebut dengan perusahaan kartu kredit saya dan saya akan menulis tentang kekacauan ini di blog perjalanan saya.
Manusia atau AI/chatbot: Saya pasti mengerti Anda kecewa – dan saya juga akan kecewa jika saya berada di posisi Anda. Tapi sayangnya …
Manusia atau AI/chatbot tidak punya jalan keluar. Biasanya dalam industri perjalanan untuk tidak mengeluarkan pengembalian uang berdasarkan Kehendak Tuhan, cuaca, dan keadaan tak terduga lainnya. Dan tidak adanya kemampuan untuk memberikan pengembalian dana, akan ada niat buruk dan kerusakan reputasi di hilir. Manusia atau AI/chatbot tidak dapat melakukan apa pun untuk menyelesaikannya, jadi carilah empati (lihat teknik #1) dalam dialog berikutnya.
Kesimpulan : mungkin manusia.
Apa sekarang?
Manusia dan AI/chatbots pada dasarnya tidak benar atau salah, baik atau buruk. Mereka masing-masing mencakup seluruh spektrum niat dan hasil. Saya hanya ingin tahu, untuk saat ini, yang sedang saya hadapi. Perbedaan itu akan menjadi semakin sulit, dan akhirnya tidak mungkin, untuk ditentukan. Dan pada saat itu, itu bahkan tidak masalah.
Sampai hari itu tiba, itu adalah permainan yang menyenangkan untuk dimainkan. Dan semakin banyak kita bermain, semakin cepat AI/chatbot berkembang.