O que realmente as pessoas sentem?
Isso nunca foi uma tarefa fácil para as empresas
identificarem. Por uma única razão, as emoções são intrinsecamente difíceis de
interpretar. Outra razão é que há sempre uma falta de conexão entre o que as
pessoas dizem que sentem e o que elas realmente sentem.
Imagine como as pessoas respondem aos comerciais do
Super Bowl. Em 2018, os telespectadores votaram pelo “Alexa Loses Her Voice” –
quando as celebridades tentam (sem sucesso) substituir o Alexa – como o melhor
comercial, de acordo com o USA Today Ad Meter. O “Groove”, da Coca Diet, que
apresentava uma mulher dançando de forma estranha após beber uma latinha de Coca
Diet Twisted Mango, foi classificado como o pior comercial. Com base nessa
pesquisa, seria possível concluir que o comercial do Alexa teve um impacto
maior. Não é exatamente assim, de acordo com Paul Zak, pesquisador de
neurociência e diretor do Immersion Neuroscience, cuja equipe estudou a imersão
neurológica das pessoas nas propagandas, A equipe de Zak avaliou o nível de
engajamento emocional dos espectadores medindo as alterações dos níveis de
oxitocina, a “assinatura neural da ressonância emocional” do cérebro. A
pesquisa concluiu que o “Groove” na verdade teve maior impacto – comprovando
para Zak que para os comerciais do Super Bowl, não “existe nenhuma correlação”
entre o que as pessoas dizem e como elas sentem ao nível do subconsciente.
Quando entrevistamos Zak para sabermos sobre esse
fenômeno, ele resumiu dizendo: “as pessoas mentem; seus cérebros, não”.
Muitas empresas usam grupos e pesquisas dedicados para
entender como as pessoas se sentem. Agora, a tecnologia emocional da IA pode
ajudar as empresas a capturar as reações emocionais em tempo real –
decodificando expressões faciais, analisando padrões de voz, monitorando os
movimentos dos olhos e medindo os níveis de imersão neurológica, por exemplo. O
resultado é uma compreensão melhorada sobre seus clientes – e até mesmo de seus
funcionários.
Os riscos dos vieses da IA emocional
Devido à natureza subjetiva das emoções, a IA emocional
é especialmente propensa a vieses. Por exemplo, um estudo concluiu que a
tecnologia da análise emocional atribui mais emoções negativas às pessoas de
algumas etnias do que para outras. Imagine as ramificações no local de
trabalho, com um algoritmo identificando de forma consistente um indivíduo como
portador de emoções negativas que poderia afetar a progressão de carreira.
A IA geralmente não é sofisticada o suficiente para
entender as diferenças culturais ao expressar e ler emoções, dificultando a
tarefa de tirar conclusões precisas. Por exemplo, um sorriso pode significar
uma coisa na Alemanha e outra no Japão. A confusão desses significados pode
levar as empresas a tomarem decisões errôneas. Imagine um turista japonês que
necessita de ajuda durante uma visita a uma loja em Berlin. Se a loja usou
reconhecimento emocional para priorizar a quais clientes deve dar suporte, o
funcionário da loja pode confundir esse sorriso – um sinal de educação no país
de origem do turista – como uma indicação de que não precisa de ajuda.
Resumindo, se deixado sem abordagem, o viés emocional
consciente ou inconsciente pode perpetuar os estereótipos e suposições em uma
escala sem precedentes.
Como as empresas podem impedir que os vieses penetrem em
casos de uso comum
Com base em nossa pesquisa e experiência trabalhando com
clientes globais, observamos as empresas utilizarem a tecnologia de IA
emocional de quatro maneiras. Através de cada uma, as implicações dos vieses de
algoritmo são um lembrete claro de que os líderes de empresas e de tecnologia
devem compreender, e evitar que esses vieses interfiram em suas conclusões.
Entender o nível real de engajamento emocional dos
funcionários. Quando a IA é usada para medir as
emoções do funcionário, isso pode ter sérios impactos na maneira como o
trabalho é alocado. Por exemplo, os funcionários sempre pensam que estão na
função certa, mas ao tentar novos projetos, podem achar que suas habilidades
estão mais alinhadas em outro lugar. Algumas empresas já permitem que
os funcionários experimentem diferentes funções uma vez por mês para observarem
de quais postos de trabalho mais gostam. Eis aqui onde o viés na IA poderia
reforçar estereótipos já existentes. Por exemplo, nos EUA, onde 89% dos
engenheiros civis e 81% dos policiais e supervisores de detetives são do sexo
masculino, um algoritmo que foi condicionado para analisar características
masculinas pode ter dificuldade em ler respostas emocionais e níveis de
envolvimento entre mulheres interessadas nessas ocupações. Isso poderia causar
erro na alocação de cargos e decisões de treinamento.
Melhorar a capacidade para criar produtos que se adaptem
às emoções do consumidor. Com
o monitoramento das emoções, os desenvolvedores de produtos podem aprender
quais recursos provocam mais empolgação e envolvimento dos usuários. Tome como
exemplo a Plataforma automotiva de IA do Affectiva, que pode reconhecer emoções
como alegria e raiva e adaptar o ambiente interno de um veículo com base nesses
dados. Câmeras e microfones podem detectar o nível de sonolência do passageiro
– e, com isso, podem diminuir a temperatura ou fazer vibrar o cinto de
segurança. Um assistente inteligente pode mudar o tom da resposta para um
passageiro frustrado. Com a IA emocional, qualquer produto ou serviço – dentro
de um carro, querem outro local – pode se tornar uma experiência adaptativa. No
entanto, um viés no ambiente da cabine veicular pode significar que alguns
passageiros podem ser mal interpretados. Pessoas idosas, por exemplo, podem ter
maior probabilidade de ser identificadas erroneamente como tendo fadiga de
direção (quanto mais idoso é o rosto, menos provavelmente as expressões são
decodificadas com precisão). E, à medida que esses sistemas se tornam mais
lugar comum, as seguradoras irão querer uma parcela desses dados. Isso pode
significar maiores prêmios para pessoas com mais idade, uma vez que os dados
poderiam sugerir que, apesar das mensagens para relaxar, o motorista decidiu
acelerar mais ainda.
Melhoria das ferramentas para medir a satisfação do
cliente. Companhias como a Cogito, uma
startup com sede em Boston, estão oferecendo às empresas as ferramentas
para seus funcionários interagirem melhor com os clientes. Seus algoritmos
podem não apenas identificar “fadiga por compaixão” nos agentes de atendimento
ao cliente, mas também podem orientar os agentes sobre como responder às
chamadas por meio de um aplicativo. Um cliente aborrecido pode, por exemplo,
ligar para reclamar de um produto. Ao gravar e analisar a conversa, a
plataforma da Cogito pode, em seguida, sugerir que o agente desacelere ou
comunicar a ele quando exibir empatia. Um algoritmo com viés, talvez distorcido
por um sotaque ou por uma voz mais profunda, pode resultar em alguns clientes
sendo tratados melhor do que outros – afugentando aqueles que sofrem o impacto
do mau tratamento para longe da marca. Uma chamada feita por um cliente do sexo
masculino pode estar sujeita a menos empatia que uma feita por uma mulher,
reforçando as percepções sociais dos homens como “emocionalmente fortes”. Por
outro lado, uma chamada feita por uma pessoa do sexo feminino pode ser
analisada como um negociador menos duro, resultando na oferta de uma
compensação menor. Ironicamente, os próprios agentes podem até mesmo não
possuir esses vieses, mas, iludidos pela falsa ideia de que os algoritmos são
altamente precisos, eles podem seguir seus conselhos cegamente. Dessa forma, os
vieses espalham-se, sem questionamentos e de forma sistemática.
A transformação da experiência de aprendizado. Os insights emocionais poderiam ser usados
para aumentar a experiência de aprendizado em todas as idades. Isso poderia,
por exemplo, permitir que os professores planejassem aulas que estimulassem o
máximo engajamento, inserindo informações importantes nos picos de engajamento
e alternando o conteúdo nos picos mínimos. Isso também oferece insights
aos próprios alunos, ajudando a identificar quem precisa de mais
atenção. A China está introduzindo sistemas de detecção de emoção nas
salas de aula para monitorar o nível de atenção dos alunos. Entretanto, os
vieses existem, sugerindo de forma errônea que alguém está desatento, o que
poderia resultar em experiências de aprendizado projetadas para alguns grupos e
não para outros. Imagine diferentes estilos de aprendizado: Algumas pessoas são
aprendizes visuais. Algumas aprendem com a experiência. Outras tendem à
concentração solitária intensa . Mas um algoritmo, talvez projetado por um
aprendiz visual, possa omitir ou fazer uma má interpretação desses detalhes.
Leituras incorretas de engajamento podem afetar os resultados da aprendizagem
até no local de trabalho, o que significa que, mesmo em programas de
treinamento, apenas uma fração dos funcionários pode desfrutar de pleno
desenvolvimento profissional. Esses erros de interpretação podem afetar os
resultados da aprendizagem até no local de trabalho, o que significa que, mesmo
em programas de treinamento, apenas uma fração dos funcionários pode desfrutar
de pleno desenvolvimento profissional.
Evitar vieses da IA
À medida que mais e mais empresas incorporam a IA
emocional em suas operações e produtos, será imperativo que elas estejam
conscientes dos vieses incluídos no processo e que trabalhem ativamente para
evitá-los.
Quer sejam devido à natureza subjetiva das emoções, quer
sejam as discrepâncias nas emoções, fica claro que a detecção de emoções não é
uma tarefa fácil. Algumas tecnologias são melhores que outras para monitorar
certas emoções, portanto combinar essas tecnologias poderia melhorar a mitigar
esses vieses. Na realidade, um estudo da Nielsen que testou a precisão das
tecnologias de neurociência, como codificação facial, biometria e
eletroencefalografia (EEG), revelou que, quando usadas separadamente, os níveis
de precisão foram de 9%, 27% e 62%, respectivamente. Quando combinadas, os
níveis de precisão sobem para 77%. Ao testar os resultados de uma pesquisa, o
nível pulou para 84%. Portanto, tais combinações servem como uma verificação da
precisão dos resultados – um tipo de sistema de referência.
Contudo, contabilizar nuances culturais em algoritmos
precisará mais do que apenas combinar e referenciar várias tecnologias. Ter
equipes diversas criando algoritmos de IA emocional será crucial para manter os
vieses à distância e captar totalmente a complexidade das emoções. Isso
significa não apenas diversidade de gênero e étnica, mas também diversidade de
status socioeconômico e pontos de vista – desviando de coisas como xenofobia,
homofobia e idade avançada. Quanto mais diversas forem as entradas e pontos de
dados, maior a probabilidade de podermos desenvolver uma IA justa e imparcial.
As empresas também terão de estar vigilantes para não
perpetuar os vieses históricos ao treinar a IA emocional. Embora os dados
históricos possam ser usados como base para treinamento da IA em relação a
diferentes estados emocionais, os dados em tempo real e ao vivo serão
necessários para o contexto. Tome como exemplo os sorrisos. Um estudo revelou
que dos 19 diferentes tipos de sorrisos, apenas seis acontecem quando as
pessoas desfrutam de um momento agradável. Também sorrimos quando sentimos dor,
vergonha e desconforto – distinções que só podem ser feitas com contexto.
Resumindo, a IA emocional será certamente uma ferramenta
poderosa, forçando empresas a reconsiderar suas relações com consumidores e
funcionários. Ela não só oferecerá novas métricas para entender as pessoas, mas
também redefinirá produtos à medida que nós os conheçamos melhor. No entanto, à
medida que as empresas ingressam no mundo da inteligência emocional, será
essencial a necessidade de impedir que vieses se infiltrem no processo. A falha
em agir corretamente deixará certos grupos sistematicamente mais incompreendidos
do que nunca – muito longe das promessas oferecidas pela IA emocional.
Os autores gostariam de agradecer os colegas da Acceture
Research, Xiao Chang, Paul Barbagallo, Dave Light e H. James Wilson, por suas
contribuições significativas para este artigo.
Mark Purdy - Diretor Administrativo da
Accenture Research.
John Zealley - Diretor Administrativo
Sênior e Líder de Insight de Cliente e Crescimento Global da Accenture.
Omaro Maseli - Analista Sênior da
Accenture Research.
Fonte: Newsletter Harvard Business
Review Brasil