PSICOSE POR IA


ChatGPT vai monitorar e denunciar conteúdos perigosos à polícia.

Casos de “PSICOSE por IA" vêm crescendo nos EUA, com relatos de chatbots levando pessoas a CRISES emocionais graves.

Diante das críticas, a OpenAI admitiu FALHAS e anunciou que agora está MONITORANDO mensagens de usuários para identificar CONTEÚDOS PERIGOSOS. Em situações GRAVES, conversas podem ser encaminhadas a REVISORES humanos e, em casos de AMEAÇA a terceiros, até às AUTORIDADES.

Confira as novas medidas para PROTEGER usuários:

Reconhecimento EMPÁTICO: modelos treinados para não encorajar AUTOLESÃO e para responder com CUIDADO.

Encaminhamento a AJUDA real: indicação de linhas diretas de APOIO em vários países.

Equipe HUMANA de revisão: casos com risco de VIOLÊNCIA a terceiros podem ser analisados e até encaminhados à POLÍCIA.

PROTEÇÕES reforçadas para adolescentes: novos controles parentais e camadas extras contra conteúdos delicados.

Atualização do GPT-5: 25% mais eficaz em reduzir DEPENDÊNCIA emocional, ADULAÇÃO e respostas INADEQUADAS em emergências.

⁉️ Essas medidas expõem um dilema: como proteger usuários em crise sem violar sua privacidade? E até que ponto podemos confiar na IA para lidar com algo tão delicado quanto saúde mental?



FUTURO DOS NEGOCIOS
Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br