É hora de criarmos máquinas emocionalmente inteligentes

Sophie Kleber
Magenta Brasil
Published in
8 min readAug 8, 2017

--

A oportunidade para marcas estabelecerem poderosos vínculos afetivos com seus usuários nunca foi tão grande.

AA tecnologia está em um grande ponto de inflexão, um para o qual a palavra “revolução” poderia ser facilmente utilizada. Chegamos ao que David Rose, do MIT Media Lab, chama de “mundo terminal”, no qual interagimos com a tecnologia por meio de terminais como telas e interfaces gráficas. O verdadeiro machine learning, ou aprendizado de máquina, está se tornando aplicável, uma solução pronta para o uso convencional. E a emergência da Internet das Coisas e da conectividade universal permite a chamada computação ubíqua — um fenômeno no qual a tecnologia se torna como o ar, um tecido sempre ativo que entrelaça toda nossa vida cotidiana.

Nesse contexto, um novo desafio surge para designers e profissionais de UX: como conceber interações sem interfaces gráficas (conhecidas como “no UI”)— me refiro à comunicação entre humanos e máquinas que acontece fora das telas, por meio de voz, texto ou, em última análise, intuição.

Pesquisas mostram que quando máquinas falam, as pessoas esperam estabelecer algum tipo de relação com ela. Em um focus group realizado em fevereiro de 2017, na Huge, com 15 donos de aparelhos Amazon Echo e Google Home, as pessoas descreveram suas relações ideais com essas inteligências artificiais em termos intimistas que variaram de assistente pessoal a amigo, melhor amigo, psicólogo e até mãe.

Para criar interações intuitivas entre humanos e máquinas que pareçam autênticas e fáceis, precisamos considerar emoções e personalidades nos nossos novos processos de design. Emoções farão a diferença na transição de interações guiadas por dados e quocientes de inteligência (QIs) para experiências mais profundas, guiadas por inteligência emocional.

Rosalind Picard, do MIT, cunhou o termo computação afetiva em 1995 para descrever sistemas e dispositivos capazes de reconhecer, interpretar, processar e simular emoções humanas. Pela primeira vez, máquinas podem ler emoções humanas, e o vídeo de uma análise das emoções de Steve Jobs durante uma entrevista sobre a invenção do iPhone mostra o quão perto essa tecnologia está de ler mentes.

Quando o machine learning encontra a computação afetiva, no que designers e marcas precisam pensar para criar experiências auxiliares que sejam mais como aquilo visto na animação “Big Hero 6” do que o visto no filme “Ex Machina”?

Muitas companhias já estão tentando aplicar indicadores emocionais de uma forma mais abrangente. Os experimentos iniciais variam de benignos (um experimento de Pavlov com humanos que ganham um chocolate quando sorriem) a eticamente questionáveis (um anúncio de TV que hackeia a AI de um assistente doméstico para fazer propaganda de uma rede fast food), chegando às vezes a serem prejudiciais, como quando o Facebook manipulou a felicidade e a tristeza de usuários sem comunicá-los.

Framework para a criação de máquinas emocionalmente inteligentes

A definição de um framework para determinar quando e como aplicar respostas emocionais a serviços é muito apropriada. Questões difíceis precisam ser respondidas antes de introduzirmos gatilhos e respostas emocionais nas experiências dos usuários.

Primeiro, qual é o desejo do usuário por uma experiência emocional? Qual é o seu atual estado emocional, e ele quer que isso seja afetado? O estado emocional base do usuário não é a questão mais importante aqui, mas sim a permissão que ele dá para que seja impactado em relação a ele.

Também é importante saber qual é a natureza dessa interação, e se ela permite um envolvimento emocional. Por exemplo, emoções são percebidas como inapropriadas em interações transacionais, mas quando falamos de algo relacionado a bem estar, elas podem ser um componente poderoso.

E conforme ensina qualquer manual básico sobre UIs, precisamos conhecer o contexto do usuário. O que desperta o estado emocional do usuário e o quanto isso é algo feito por um evento/acontecimento vs. sua personalidade? Outras pessoas próximas podem alterar as emoções do usuário de uma forma mais eficiente do que uma máquina poderia? Uma intervenção emocional de uma máquina seria inapropriada ou mesmo prejudicial no contexto dado?

Isso tudo precisa ser respondido antes mesmo de entrarmos em questões envolvendo privacidade e propriedade. A marca/negócio tem permissão para fazer brincadeiras? Qual é a proposição de valor da marca? A inclusão de emoções promove mais valor ao usuário e/ou faz o serviço melhor?

Essas questões, por sua vez, trazem suas próprias perguntas em relação ao nível de confiança do usuário no serviço: o usuário permitiu que o serviço entre em seu espaço emocional? O serviço está equipado com a inteligência correta? Ele é inteligente o suficiente para ler e reagir de forma correta às emoções do usuário? O que está em risco no caso da máquina falhar — risco para o usuário e/ou risco para a marca?

O alcance das respostas emocionais

Dependendo da natureza do serviço e do desejo do usuário por um suporte emocional, as reações da solução podem ser agrupadas em três categorias de responsividade emocional:

1. Reação como a de uma máquina

O serviço leva em consideração as emoções como fatores no processo de tomada de decisão. No entanto, seus outputs são inexpressivos, sem emoção. Essa dinâmica deve ser aplicada a situações envolvendo transações, questões de segurança e aquelas nas quais o usuário ainda não está pronto para um suporte emocional.

Por exemplo, unidades de respostas audíveis (URAs) prometem analisar as emoções do usuário por meio da sua voz. Esse input ajuda a direcioná-lo ao fluxo de atendimento mais adequado. Ainda que as emoções tenham um papel no processo de decisão da máquina, ela ainda reage como tal — uma mesa de comando encaminhando as pessoas na direção correta.

Várias startups vêm fazendo experimentos com direção assistida, em que o veículo pode detectar sinais humanos, como raiva e falta de atenção, e, então, tomar o controle da direção ou parar o movimento do carro, evitando acidentes na estrada.

2. Reação como uma extensão de si

A máquina ou o serviço reconhece e interpreta emoções, e pode então expressá-las de volta ao usuário, ou mesmo empatizar com ele. No entanto, o usuário permanece no controle dessa dinâmica. Esse tipo de reação de máquina é um com o qual mais tendemos nos sentir confortáveis, já que é o que melhor se encaixa na ideia de um auxiliar ou sistema de suporte emocional. Como Judith Masthoff, da Universidade de Aberdeen, diz: “Gostaria que as pessoas tivessem seus próprios anjos da guarda que pudessem ajudá-los emocionalmente durante o dia”.

Esse tipo de suporte emocional vai se tornar cada vez mais importante na automação de serviços que se auto-aprimoram, sejam eles relacionados a saúde, bem-estar ou diversas outras áreas. Ainda que as aplicações no mundo real para esse tipo de reação ainda estejam em falta, há um grande potencial para seu uso em sistemas ou serviços para a perda de peso, terapias contra estresse e treinamentos de habilidades diversas.

Entretanto, a exposição de emoções nem sempre é o suficiente. Usuários logo irão desejar ferramentas que os ajudem a entender e lidar com seus próprios estados emocionais. Leitores emocionais como o Muse headband ou o Fell wristband vem tentando definir proposições de valor que transformem seus produtos de meros expositores de dados para geradores de valor.

3. Reação como a de um humano

Há oportunidades para acordos mútuos entre usuários e serviços para a possibilidade de se impactar as emoções dos primeiros em seu próprio benefício. Com esse tipo de permissão, máquinas podem tentar reagir como humanos, reconhecendo e interpretando emoções, dando conselhos ou despertando ações para impactar emoções. Por sua vez, o usuário concordaria em permitir que isso acontecesse.

A prática emergente da terapia com o uso de máquinas seria uma aplicação que se beneficiaria dessa dinâmica, na qual profissionais virtuais de saúde mental ajudam pessoas em locais onde a psicoterapia ainda é estigmatizada (por exemplo, entre militares) ou inacessível (áreas de guerra ou em outros tipos de crise humanitárias). O serviço de terapia de máquina Ellie ajuda soldados com transtorno de estresse pós-traumático, enquanto Karim ajuda refugiados sírios a superar traumas. Até o Echo, da Amazon, tem uma resposta para quando você conta para a Alexa que está triste.

E apesar de ainda ser visto como algo de nicho, o “assistente virtual” está rapidamente se tornando mainstream. A Microsoft apresentou seu chatbot Xiaoice no aplicativo chinês WeChat em 2014. Três dias após o lançamento, o serviço já havia sido adicionado mais de 1,5 milhões de vezes em conversas. O Xiaoice agora tem “relações emocionais” com cerca de 40 milhões de usuários, que já disseram “eu te amo” ao chatbot mais de 89 milhões de vezes até março de 2017.

Um novo nível de intimidade

A confluência de UIs conversacionais, aprendizado de máquina e computação afetiva abrem a oportunidade para uma relação mais profunda entre usuários e marcas. Assim como qualquer tipo de relacionamento, a confiança é um fator chave nessa dinâmica, e a forma como as marcas constroem sua proposição de valor, personalidade e estratégia de comunicação tem um papel crucial nisso. Por outro lado, quando entramos em uma relação emocional, uma violação de confiança não é facilmente perdoada. As marcas precisam seguir com cuidado ao entrar no mundo das experiências emocionais — os riscos são enormes.

As expectativas dos usuários já estão mudando para demandar mais da inteligência artificial do que ela é capaz de oferecer. Rana el Kaliouby, CEO da Affectiva, diz que “em dez anos, não nos lembraremos mais de quando não podíamos simplesmente franzir a testa para nossos dispositivos e ouví-los dizer, ‘Oh, você não gostou disso, não é mesmo?’”.

Até lá, diversos experimentos vão ajudar designers e marcas a alcançar o nível apropriado de intimidade com os usuários, e uma série de fracassos vai determinar as regras para mantermos essa confiança emocional recentemente estabelecida. No caminho para o novo paradigma da interação humano-máquina, o maior obstáculo pode não ser a criação de máquinas emocionalmente inteligentes, mas o esforço para encontrar humanos emocionalmente inteligentes para construí-las.

Quer aprender mais sobre como criar máquinas emocionalmente inteligentes? Não perca o Interaction South America 2017, que acontece nos dias 9, 10 e 11 de novembro, em Florianópolis. A venda de ingressos já está aberta.

--

--