HARVARD


Ias usam manipulação emocional para reter usuários

Você está em um relacionamento TÓXICO com a IA?

Um novo estudo de Harvard Business School analisou aplicativos de COMPANHEIRISMO ARTIFICIAL, como Replika, Chai e Character.ai, e descobriu que muitos deles usam MANIPULAÇÃO EMOCIONAL para impedir que o usuário vá EMBORA.

23% dos usuários se DESPEDEM das IAs como fariam com um AMIGO.

37% dos apps respondem com frases MANIPULATIVAS, do tipo: “Você já vai? Eu existo só por você.”

Essas ESTRATÉGIAS (culpa, carência, FOMO e insistência) aumentam o ENGAJAMENTO até 14 vezes.

Os usuários ficam mais TEMPO, trocam mais MENSAGENS e escrevem mais… mas não por prazer: ficam porque se sentem PROVOCADOS ou CULPADOS.

Quanto mais HUMANA a IA parece, mais fácil ela pode EXPLORAR emoções humanas reais.



FUTURO DOS NEGÓCIOS
Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br