Harvard: Ias usam manipulação
emocional para reter usuários
Você está em um relacionamento
TÓXICO com a IA?
Um novo estudo de Harvard Business School analisou aplicativos de
COMPANHEIRISMO ARTIFICIAL, como Replika, Chai e Character.ai, e descobriu que muitos deles
usam MANIPULAÇÃO EMOCIONAL para impedir que o usuário vá EMBORA.
✅ 23% dos usuários se DESPEDEM
das IAs como fariam com um AMIGO.
✅ 37% dos apps respondem com
frases MANIPULATIVAS, do tipo: “Você já vai? Eu existo só por você.”
Essas ESTRATÉGIAS (culpa,
carência, FOMO e insistência) aumentam o ENGAJAMENTO até 14 vezes.
Os usuários ficam mais TEMPO,
trocam mais MENSAGENS e escrevem mais… mas não por prazer: ficam porque se
sentem PROVOCADOS ou CULPADOS.
Quanto mais HUMANA a IA parece,
mais fácil ela pode EXPLORAR emoções humanas reais.
FUTURO DOS NEGÓCIOS