ChatGPT vai monitorar e
denunciar conteúdos perigosos à polícia.
Casos de “PSICOSE por IA" vêm crescendo nos EUA,
com relatos de chatbots levando pessoas a CRISES emocionais graves.
Diante
das críticas, a OpenAI admitiu FALHAS e anunciou que agora está MONITORANDO
mensagens de usuários para identificar CONTEÚDOS PERIGOSOS. Em situações
GRAVES, conversas podem ser encaminhadas a REVISORES humanos e, em casos de
AMEAÇA a terceiros, até às AUTORIDADES.
Confira
as novas medidas para PROTEGER usuários:
✅ Reconhecimento EMPÁTICO: modelos
treinados para não encorajar AUTOLESÃO e para responder com CUIDADO.
✅ Encaminhamento a AJUDA real: indicação de
linhas diretas de APOIO em vários países.
✅ Equipe HUMANA de revisão: casos com risco
de VIOLÊNCIA a terceiros podem ser analisados e até encaminhados à POLÍCIA.
✅ PROTEÇÕES reforçadas para adolescentes:
novos controles parentais e camadas extras contra conteúdos delicados.
✅ Atualização do GPT-5: 25% mais eficaz em reduzir
DEPENDÊNCIA emocional, ADULAÇÃO e respostas INADEQUADAS em emergências.
⁉️ Essas medidas expõem um dilema: como proteger usuários
em crise sem violar sua privacidade? E até que ponto podemos confiar na IA para
lidar com algo tão delicado quanto saúde mental?
FUTURO DOS NEGOCIOS