Resumos de notícias gerados por
Inteligência Artificial podem conter imprecisões
RESUMOS de notícias gerados por
assistentes de IA frequentemente contêm IMPRECISÕES e DISTORÇÕES.
Um estudo da BBC analisou
resumos de IA em plataformas como ChatGPT, Microsoft Copilot, Gemini (Google) e
Perplexity AI.
Foram feitas 100 perguntas sobre diferentes notícias, e as
respostas geradas foram analisadas por jornalistas especializados, considerando
CRITÉRIOS como PRECISÃO, IMPARCIALIDADE e FIDELIDADE ao CONTEÚDO original.
Os
resultados mostraram IMPRECISÕES em 51% das RESPOSTAS.
Principais achados da pesquisa:
✅ 19% das respostas que citavam
matérias da BBC continham ERROS FACTUAIS.
✅ 13% das citações estavam
ALTERADAS ou NÃO EXISTIAM no artigo original.
✅ O Gemini (Google) apresentou os
piores resultados: 46% das respostas tinham problemas significativos de
PRECISÃO.
Embora o estudo ressalte a
IMPORTÂNCIA da inteligência artificial para AUTOMAÇÃO de processos e
ASSISTÊNCIA em diversas tarefas, os jornalistas também chamam atenção para a
importância da REGULAMENTAÇÃO e da TRANSPARÊNCIA no uso dessas ferramentas para
combater a DESINFORMAÇÃO.
FUTURO DOS NEGÓCIOS