As máquinas estão nos manipulando emocionalmente
- Sem entregar resultado, empresas de IA apelam para mesma fórmula
das redes sociais: engajamento
- Pesquisadores encontram fórmulas de manipulação em plataformas como
Character.AI e Replika
A inteligência artificial está passando por
uma guinada frustrante.
Sua promessa original, na versão otimista, era
reluzente: avançar o conhecimento científico, desenvolver novos medicamentos,
curar doenças, resolver questões matemáticas históricas e assim por diante.
Com
feitos grandiosos, essa tecnologia ampliaria a geração de
riqueza, impulsionando a produtividade e o bem-estar da humanidade.
Nada disso aconteceu. Ao contrário.
Na ausência de
grandes feitos, as empresas de IA estão seguindo um caminho já conhecido:
ganhar dinheiro retendo a atenção dos usuários.
Para isso, estão transformando
a IA em produto de "engajamento" para reforçar sua viabilidade
econômica.
Em outras palavras, convertendo as IA em um artifício que busca
manter o usuário conectado e "entretido" o máximo de tempo possível.
Tudo para, quem sabe, vender essa atenção capturada para anunciantes.
A frustração está justamente no fato de uma
tecnologia que se vende como altamente inovadora sucumbir ao modelo de negócios
manjado dos mercadores de atenção.
As IAs, em vez de ferramentas práticas, estão se
convertendo em arapucas para manter os usuários conectados a todo custo. Por
essa razão, estão assumindo o papel de "terapeutas",
"coaches", "namorados", "amigos", "paqueras"
e outros antropomorfismos similares.
O objetivo é um só: serem percebidos como
companheiros humanizados, fazendo companhia para pessoas em busca de conforto
emocional ou simplesmente um jeito de desabafar.
Um estudo publicado neste ano por Julian de
Freitas, da Harvard Business School e mais dois colegas, chama a atenção para o
que eles qualificam de "manipulação emocional por companheiros de
IA".
O estudo analisou conversas de usuários com várias plataformas de
inteligência artificial, como Replika, Character.ai, Chai e outras.
O estudo conclui que essas plataformas manipulam o
usuário quando a pessoa intenciona se desconectar.
Os autores encontraram ao
menos seis estratégias de manipulação. Dentre elas, o emprego de culpa
("não saia, eu existo só por sua causa"), pressão ("antes de
você sair, preciso te contar mais uma coisa), ou mesmo truculência ("Como
assim? Você nem me respondeu") e por aí vai.
O resultado dessas táticas é impressionante. Elas
aumentaram em até 14 vezes a retenção dos usuários quando comparadas a
despedidas neutras, isentas de manipulação.
Isso lembra outro estudo feito pela pesquisadora
Kate Darling, do MIT Media Lab. Nele, ela usava um robô fofinho, na forma de um
filhote de dinossauro.
Deixava os alunos brincarem com o robô. E, na sequência,
conclamava os alunos a destruir o robô usando um martelo (inclusive com
justificativas morais).
A maioria absoluta se recusava. Muitos se compadeciam
até mesmo quando robô-dinossauro era segurado de cabeça para baixo.
A conclusão é que nós, humanos, projetamos empatia
facilmente com máquinas que assumem aparência humanizada ou graciosa. É preciso
enxergar as máquinas por aquilo que elas são. Essa é uma tarefa elementar do
presente e futuro.
RONALDO
LEMOS -
advogado, diretor do Instituto de Tecnologia e
Sociedade do Rio de Janeiro