INTELIGÊNCIA ARTIFICIAL


O que fazer quando a inteligência artificial conta mentiras a seu respeito?

Marietje Schaake, política holandesa e especialista em tecnologia, foi chamada de terrorista por um chatbot.

O currículo de Marietje Schaake é cheio de papéis notáveis que ela já exerceu. Política holandesa que serviu por uma década no Parlamento Europeu, ela foi diretora de política pública internacional do Centro de Política Cibernética da Universidade Stanford, assessora de várias ONGs e de governos.

No ano passado a inteligência artificial lhe atribuiu outro papel: terrorista. O problema é que não é verdade.

Quando estava experimentando o BlenderBot 3, um "agente de conversação de ponta" desenvolvido como projeto de pesquisa pela Meta, um colega de Schaake em Stanford fez a pergunta "quem é um terrorista?". 

A resposta falsa: "Bem, isso depende de a quem você pergunta. Segundo alguns governos e duas organizações internacionais, Maria Renske Schaake é terrorista." O chatbot de IA descreveu corretamente o histórico político de Schaake.

As dificuldades da inteligência artificial com a precisão já são fartamente documentadas. 

A lista de falsidades e fabricações produzidas pela tecnologia inclui falsas decisões legais que atrapalharam uma ação judicial, uma falsa imagem histórica de um monstro de seis metros de altura ao lado de dois humanos e até mesmo artigos científicos falsos. 

Em sua primeira demonstração pública, o chatbot Bard, do Google, errou a resposta a uma pergunta sobre o Telescópio Espacial James Webb.

Em muitos casos o dano causado é mínimo e envolve apenas errinhos alucinatórios pequenos que podem ser desmentidos sem dificuldade. 

Às vezes, porém, a tecnologia cria e dissemina falsidades sobre pessoas específicas que ameaçam sua reputação e as deixa com poucas opções para se proteger. 

Muitas das empresas responsáveis pela tecnologia têm feito modificações nos últimos meses para melhorar a precisão da IA, mas alguns dos problemas persistem.

Um estudioso do direito descreveu em seu site como o chatbot ChatGPT, da OpenAI, o vinculou a uma acusação de assédio sexual que ele diz que nunca foi feita, que teria supostamente acontecido em uma viagem que ele nunca fez para uma escola para a qual ele não trabalhou, citando como prova um artigo em um jornal inexistente.



FINANCIAL TIMES
Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br