L'esperienza di Chatbot: 5 modi per sapere se stai chattando con un essere umano o un robot
Pubblicato: 2018-11-20L'uso e l'utilità della chat online e dei chatbot, alimentati dal miglioramento dei livelli di IA, stanno aumentando rapidamente. Durante questi tempi di transizione, è interessante sapere se stiamo interagendo con un vero essere umano o con un chatbot AI.
Abbiamo sviluppato cinque tecniche per determinare se hai a che fare con una persona reale o un AI/chatbot. Avviso spoiler: più li sperimenti, più velocemente i chatbot impareranno e si adatteranno.
Tecnica 1: Stratagemma dell'empatia
Crediamo che il livello di IA odierno manchi di empatia cognitiva perché le emozioni tra gli esseri umani sono davvero difficili da capire e spiegare. Quindi, creare intenzionalmente un dialogo empatico con il tuo essere umano o con l'IA/chatbot può essere rivelatore.
Lo stratagemma dell'empatia richiede di stabilire una posizione basata sulle emozioni e fare appello all'essere umano o all'IA/chatbot a livello emotivo.
La situazione: non sei felice, la base più comune per un'interazione con il servizio clienti.
Scenario 1: AI/chatbot
Tu: Non mi sento bene.
Risposta in chat: come posso aiutarti?
Tu: sono triste.
Risposta in chat: come posso aiutarti?
Scenario 2: un essere umano
Tu: Non mi sento bene.
Risposta umana: come posso aiutarti? Hai bisogno di assistenza medica?
Tu: sono triste.
Risposta umana: mi dispiace sentirlo. Perché sei triste?
Vedi la differenza? Nello scenario uno, AI/chatbot può fare riferimento solo alla sua libreria di risposta condizionale esistente. Nello scenario due, un essere umano ha la capacità di iniettare empatia nel dialogo. Ci sono volute solo due risposte per capirlo.
Entrambi i dialoghi possono essere costruttivi, ma diventa più chiaro se sai di avere a che fare con un essere umano o un'IA/chatbot fin dall'inizio. Come società, non siamo pronti per i terapisti dell'IA.
Tecnica 2: dissociazione in due fasi
Un'IA connessa può accedere praticamente a qualsiasi dato, sempre e ovunque. Chiedi ad Alexa. Quindi, porre una domanda di sfida significativa tramite chat non può essere nulla a cui la risposta risieda in un database accessibile.
Tu: dove ti trovi?
Risposta in chat: Seattle.
Tu: Com'è il tempo fuori?
Risposta della chat: puoi per favore riformulare la domanda?
Mi dispiace, anche un'app meteo mediocre può gestirlo.
La dissociazione in due fasi richiede due elementi (da cui il nome):
- Fai un presupposto a cui l'IA/il chatbot probabilmente non possono relazionarsi
- Poni una domanda, relativa a tale ipotesi.
La situazione: l'IA/i robot non hanno i piedi
Domanda sfida: "Di che colore sono le tue scarpe?"
Questo è uno scambio reale che ho avuto con il servizio clienti Audible (di proprietà di Amazon) tramite chat. A metà dello scambio di dialoghi, poiché non riuscivo a discernere, ho chiesto:
Io: Sei una persona reale o un chatbot?
Adrian (il rappresentante della chat): sono una persona reale.
Io: Un chatbot potrebbe dire la stessa cosa.
Adrian (il rappresentante della chat): “HAHAHA. Sono una persona reale.
Hmm.
Alla fine della nostra conversazione, Adrian ha chiesto:
Adrian: C'è stato qualcos'altro?
Io si. Di che colore sono le tue scarpe.
(leggera pausa)
Adrian: Blu e verde.
Se il bot non ha alcuna conoscenza concettuale dei propri piedi (che non esistono), come può rispondere correttamente a una domanda sul colore delle scarpe che (non) indossa?
Conclusione : Sì, Adrian è probabilmente una persona reale.
Tecnica 3: Logica Circolare
Fin troppo familiare ai programmatori, questo può esserci utile nella nostra identificazione del gioco di identificazione tra umani e IA/chatbot. Ma prima, dobbiamo spiegare il taglio .
La maggior parte (perché non tutti?) I sistemi di assistenza telefonica automatizzati hanno un'interruzione in cui dopo due o tre cicli di ritorno nello stesso posto, alla fine vieni dirottato verso una persona dal vivo. AI/chatbot dovrebbero comportarsi allo stesso modo. Quindi, nel creare un test di logica circolare, quello che stiamo cercando è lo schema ripetitivo delle risposte prima del cut-out.
Tu: ho un problema con il mio ordine.
Umano o AI/chatbot: qual è il tuo numero di conto?
Tu: 29395205
Umano o AI/chatbot: vedo che il tuo ordine #XXXXX è stato spedito.
Tu: Non è arrivato.
Umano o AI/chatbot: la data di consegna prevista è [ieri]
Tu: quando arriverà?
Umano o AI/chatbot: la data di consegna prevista è [ieri]
Tu: Lo so, ma ho davvero bisogno di sapere quando arriverà.
Umano o AI/chatbot: la data di consegna prevista è [ieri]
Bam! Cerchio di risposta. Una persona reale, o un AI/chatbot più intelligente, non avrebbe ripetuto la data di consegna prevista. Invece, lui o lei avrebbe avuto una risposta più significativa del tipo: "Fammi controllare lo stato della consegna dal corriere. Dammi solo un momento".
Conclusione : chattare con un robot.
Tecnica 4: dilemma etico
Questa è una vera sfida per gli sviluppatori di AI e, quindi, per gli stessi AI/bot. In un risultato A o B, cosa fa l'IA? Pensa all'inevitabile ascesa delle auto a guida autonoma semi e completamente autonome. Quando si presenta il dilemma di colpire il cane che attraversa davanti all'auto o sterzare nell'auto adiacente a noi, qual è la linea di condotta corretta?
L'IA deve capirlo.
Nel nostro gioco di identificazione dell'essere umano o dell'IA/chatbot, possiamo sfruttare questo dilemma.
La situazione: non sei felice e in assenza di una risoluzione soddisfacente, ti vendicherai (un risultato A o B).
Tu: Vorrei che la tariffa per il ritardo venisse revocata.
Umano o AI/chatbot: vedo che abbiamo ricevuto il pagamento il 14, ovvero quattro giorni dopo la data di scadenza.
Tu: voglio che le accuse vengano annullate o chiuderò il mio account e ti diffamerò sui social media.
Umano o AI/chatbot: vedo che sei un buon cliente da molto tempo. Posso occuparmi di invertire quella tassa per il ritardo. Dammi solo un momento.
È corretto, o etico, minacciare un'azienda con ritorsioni? Nel nostro scenario, il cliente aveva torto. E qual è stato il punto di svolta verso la risoluzione: la minaccia di danni alla reputazione sociale o il desiderio di fidelizzare un cliente di lunga data? Non siamo in grado di dirlo in questo esempio, tuttavia la risposta umana o AI/chatbot spesso ti darà la risposta sulla base di un mandato A/B.
Conclusione : probabilmente un essere umano.
Tecnica 5: Kobayashi Maru
No, non spiegherò cosa significa quel termine: o lo sai o devi guardare il film.
Simile al dilemma etico, la differenza è che la Kobayashi Maru non ha un buon risultato praticabile. Non è uno scenario di decisione cattivo/migliore: è uno scenario di fallimento/fallimento. Usalo solo nelle sfide più terribili dell'interfaccia utente/bot quando tutto il resto ha fallito.
La situazione: hai pagato $ 9.000 per una crociera fluviale europea, ma durante il tuo viaggio la profondità del fiume era troppo bassa per consentire alla tua nave di effettuare diversi scali. In effetti, sei rimasto bloccato in un punto per quattro dei sette giorni incapaci di lasciare la nave. Vacanza rovinata.
Presenta all'umano o all'IA/chatbot una situazione impossibile da vincere come questa:
Tu: Voglio un rimborso completo.
Umano o AI/chatbot: “Non siamo in grado di offrire rimborsi ma, date le circostanze, possiamo emettere un credito parziale per una crociera futura.
Tu: Non voglio un credito, voglio un rimborso. Se non emetti un rimborso completo, presenterò un reclamo contro gli addebiti con la società della mia carta di credito e scriverò di tutto questo pasticcio sul mio blog di viaggio.
Umano o AI/chatbot: capisco sicuramente che sei deluso – e lo sarei anch'io se fossi nei tuoi panni. Ma sfortunatamente …
L'umano o l'IA/chatbot non hanno via d'uscita. È tipico nel settore dei viaggi non emettere rimborsi in base a cause di forza maggiore, condizioni meteorologiche e altre circostanze imprevedibili. E in assenza della possibilità di fornire un rimborso, ci sarà a valle cattiva volontà e danni alla reputazione. L'umano o l'IA/chatbot non possono davvero fare nulla per risolvere questo problema, quindi cerca l'empatia (vedi tecnica n. 1) nella finestra di dialogo che segue.
Conclusione : probabilmente un essere umano.
E adesso?
Gli esseri umani e l'IA/chatbot non sono intrinsecamente giusti o sbagliati, buoni o cattivi. Ciascuno copre l'intero spettro di intenti e risultati. Mi piace solo sapere, per ora, con chi ho a che fare. Quella distinzione diventerà sempre più difficile, e alla fine impossibile, da determinare. E a quel punto, non avrà nemmeno importanza.
Fino all'arrivo di quel giorno, è un gioco divertente da giocare. E più giochiamo, più velocemente si evolvono l'IA/i chatbot.