A experiência do chatbot: 5 maneiras de saber se você está conversando com um humano ou robô

Publicados: 2018-11-20

chatbot humano ou robô

O uso e a utilidade do chat online e dos chatbots, impulsionados pela melhoria dos níveis de IA, estão aumentando rapidamente. Durante esses tempos de transição, é interessante saber se estamos interagindo com um ser humano real ou um chatbot de IA.

Desenvolvemos cinco técnicas para determinar se você está lidando com uma pessoa real ou um AI/chatbot. Alerta de spoiler: quanto mais você experimentar, mais rápido os chatbots aprenderão e se adaptarão.

Técnica 1: Estratagema de Empatia

Acreditamos que o nível atual de IA carece de empatia cognitiva porque as emoções entre humanos são realmente difíceis de entender e explicar. Portanto, criar intencionalmente um diálogo empático com seu ser humano ou IA/chatbot pode ser revelador.

O Empathy Ploy exige que você estabeleça uma posição baseada na emoção e apele ao ser humano ou à IA/chatbot em um nível emocional.

A situação: você não está feliz — a base mais comum para uma interação de atendimento ao cliente.

Cenário 1: IA/chatbot

Você: não estou me sentindo bem.

Resposta do bate-papo: Como posso ajudá-lo?

Você: estou triste.

Resposta do bate-papo: Como posso ajudá-lo?

Cenário 2: um ser humano

Você: não estou me sentindo bem.

Resposta humana: Como posso ajudá-lo? Você precisa de ajuda médica?

Você: estou triste.

Resposta humana: Lamento ouvir isso. Por que você esta triste?

Veja a diferença? No cenário um, o AI/chatbot pode fazer referência apenas à sua biblioteca de resposta condicional existente. No cenário dois, um ser humano tem a capacidade de injetar empatia no diálogo. Isso levou apenas duas respostas para descobrir.

Qualquer um dos diálogos pode ser construtivo, mas fica mais claro se você souber que está lidando com um ser humano ou um AI/chatbot desde o início. Como sociedade, não estamos prontos para terapeutas de IA.

Técnica 2: dissociação em duas etapas

Uma IA conectada pode acessar praticamente qualquer dado, a qualquer hora e em qualquer lugar. Basta perguntar ao Alexa. Portanto, fazer uma pergunta de desafio significativa no bate-papo não pode ser algo para o qual a resposta resida em um banco de dados acessível.

Você: Onde você está localizado?

Resposta do bate-papo: Seattle.

Você: Como está o tempo lá fora?

Resposta do bate-papo: Você pode reformular a pergunta?

Desculpe, mesmo um aplicativo de clima medíocre pode lidar com isso.

A dissociação em duas etapas requer dois elementos (daí o nome):

  1. Faça uma suposição com a qual o AI/chatbot provavelmente não pode se relacionar
  2. Faça uma pergunta, relacionada a essa suposição.

A situação: AI/bots não têm pés

Pergunta do desafio: “De que cor são seus sapatos?”

Esta é uma troca real que tive com o atendimento ao cliente Audible (de propriedade da Amazon) via chat. No meio da troca de diálogos, como não conseguia discernir, perguntei:

Eu: Você é uma pessoa real ou um chatbot?

Adrian (o representante do chat): Eu sou uma pessoa real.

Eu: Um chatbot pode dizer a mesma coisa.

Adrian (o representante do chat): “HAHAHA. Eu sou uma pessoa real.

Hum.

Ao final de nossa conversa, Adrian perguntou:

Adrian: Tem mais alguma coisa?

Eu sim. De que cor são seus sapatos.

(pequena pausa)
Adrian: Azul e verde.

Se o bot não tem conhecimento conceitual de seus próprios pés (que não existem), como ele pode responder corretamente a uma pergunta sobre a cor dos sapatos que está (não) usando?

Conclusão : Sim, Adrian é provavelmente uma pessoa real.

Técnica 3: Lógica Circular

Muito familiar para os programadores, isso pode ser útil para nós em nossa identificação do jogo de identificação humano vs. IA/chatbot. Mas primeiro, temos que explicar o recorte .

A maioria (por que não todos?) sistemas automatizados de ajuda por telefone tem um corte no qual, depois de dois ou três loops de volta ao mesmo lugar, você acaba sendo desviado para uma pessoa viva. AI/chatbots devem se comportar da mesma maneira. Então, ao criar um teste de lógica circular, o que estamos procurando é o padrão repetitivo de respostas antes do corte.

Você: Estou com um problema com meu pedido.

Humano ou AI/chatbot: Qual é o número da sua conta?

Você: 29395205

Humano ou AI/chatbot: vejo que seu pedido #XXXXX foi enviado.

Você: Não chegou.

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Você: Quando vai chegar?

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Você: Eu sei, mas preciso muito saber quando vai chegar.

Humano ou AI/chatbot: A data de entrega prevista é [ontem]

Bam! Círculo de resposta. Uma pessoa real, ou um AI/chatbot mais inteligente, não teria repetido a data de entrega esperada. Em vez disso, ele/ela teria uma resposta mais significativa como: “Deixe-me verificar o status de entrega da transportadora. Dê-me apenas um momento.”

Conclusão : conversando com um robô.

Técnica 4: Dilema Ético

Este é um verdadeiro desafio para os desenvolvedores de IA e, portanto, para a própria IA/bots. Em um resultado A ou B, o que a IA faz? Pense na inevitável ascensão de carros autônomos semi e totalmente autônomos. Quando se depara com o dilema de bater no cachorro que passa na frente do carro ou desviar para o carro adjacente a nós, qual é o curso de ação correto?

A IA tem que descobrir isso.

Em nosso jogo de identificação de ser humano ou IA/chatbot, podemos explorar esse dilema.

A Situação: Você não está feliz e na falta de uma resolução satisfatória, você vai retaliar (um resultado A ou B).

Você: Eu gostaria que a taxa de atraso fosse dispensada.

Humano ou AI/ chatbot : vejo que recebemos seu pagamento no dia 14, que está quatro dias após a data de vencimento.

Você: quero que as cobranças sejam revertidas ou vou fechar minha conta e te difamar nas redes sociais.

Humano ou AI/chatbot: vejo que você é um bom cliente há muito tempo. Eu posso cuidar de reverter essa taxa atrasada. Dê-me apenas um momento.

É correto ou ético ameaçar uma empresa com retaliação? Em nosso cenário, o cliente estava errado. E qual foi o ponto de inflexão para a resolução: a ameaça de danos à reputação social ou o desejo de reter um cliente de longa data? Não podemos dizer neste exemplo, mas a resposta humana ou de IA/chatbot geralmente fornecerá a resposta com base em um mandato A/B.

Conclusão : provavelmente um humano.

Técnica 5: Kobayashi Maru

Não, não vou explicar o que esse termo significa – ou você sabe disso ou precisa assistir ao filme.

Semelhante ao Dilema Ético, a diferença é que o Kobayashi Maru não tem um bom resultado viável. Não é um cenário de decisão ruim/melhor: é um cenário de falha/falha. Use isso apenas nos piores desafios de interface do usuário/bot quando tudo mais falhar.

A situação: você pagou US$ 9.000 por um cruzeiro fluvial europeu, mas durante sua viagem, a profundidade do rio era muito baixa para seu navio fazer vários portos de escala. Na verdade, você ficou preso em um ponto por quatro dos sete dias sem poder deixar o navio. Férias arruinadas.

Apresente ao humano ou AI/chatbot uma situação invencível como esta:

Você: Eu quero um reembolso total.

Humano ou AI/chatbot: “Não podemos oferecer reembolsos, mas dadas as circunstâncias, podemos emitir um crédito parcial para um futuro cruzeiro.

Você: não quero crédito, quero reembolso. Se você não emitir um reembolso total, apresentarei uma reclamação contra as cobranças com minha empresa de cartão de crédito e escreverei sobre toda essa confusão no meu blog de viagens.

Humano ou AI/chatbot: Eu certamente entendo que você esteja desapontado – e eu também estaria se estivesse no seu lugar. Mas infelizmente …

O humano ou AI/chatbot não tem saída. É típico no setor de viagens não emitir reembolsos com base em Atos de Deus, clima e outras circunstâncias imprevisíveis. E, na ausência da capacidade de fornecer um reembolso, haverá má vontade e danos à reputação a jusante. O humano ou AI/chatbot não pode realmente fazer nada para resolver isso, então procure por empatia (veja a técnica nº 1) no diálogo seguinte.

Conclusão : provavelmente um humano.

E agora?

Humanos e IA/chatbots não são inerentemente certos ou errados, bons ou ruins. Cada um deles cobre todo o espectro de intenções e resultados. Só gostaria de saber, por enquanto, com o que estou lidando. Essa distinção se tornará cada vez mais difícil, e eventualmente impossível, de determinar. E nesse ponto, isso nem vai importar.

Até esse dia chegar, é um jogo divertido de jogar. E quanto mais jogamos, mais rápido a IA/chatbots evoluem.