Como reconhecer fotos criadas
por inteligência artificial?
Programas como Midjourney e DeepAI estão causando uma avalanche de
falsificações na internet.
Nunca foi tão fácil criar imagens falsas tão reais: uma
conexão à internet e uma ferramenta que funciona com inteligência artificial é tudo do que se
precisa.
Em segundos, são criadas imagens fotorrealistas que muitos de nós
percebemos como reais. E é por isso que elas se espalham tão rapidamente nas
redes sociais e são frequentemente usadas especificamente para desinformação.
Apenas alguns exemplos recentes
que se tornaram virais: Vladimir Putin supostamente preso, Donald Trump também
supostamente preso ou Elon Musk supostamente de mãos dadas com Mary
Bara, CEO da General Motors. São todas imagens criadas por inteligência
artificial (IA) mostrando coisas que nunca aconteceram.
TERREMOTOS QUE NUNCA ACONTECERAM
Eventos como supostas
perseguições espetaculares de carros ou prisões de celebridades como Putin ou
Trump podem ser checados com bastante rapidez pelos usuários, verificando
fontes de mídia respeitáveis.
Mais problemáticas são as imagens nas quais as
pessoas não são tão conhecidas, diz o especialista em IA Henry Ajder à DW.
"E não são apenas as
imagens falsas com pessoas que podem espalhar a desinformação", explica
Ajder. "Temos visto pessoas criando eventos que nunca aconteceram, como
terremotos."
Foi o que ocorreu no caso de um
suposto grande terremoto que abalou o noroeste do Pacífico em 2001.
Só que
terremoto nunca aconteceu, as imagens compartilhadas no Reddit sobre ele foram
geradas por inteligência artificial.
Diante de imagens do tipo, está
se tornando cada vez mais difícil classificar o que realmente aconteceu.
Mas, assim como errar é humano, também a IA comete erros.
Ao menos por
enquanto, pois as ferramentas de IA estão se desenvolvendo rapidamente.
Atualmente (abril de 2023), programas como Midjourney, Dall-E e DeepAI têm seus
problemas, especialmente com imagens que mostram pessoas.
Aqui estão seis dicas da equipe
de checagem da DW sobre como detectar manipulações:
1. AMPLIAR E EXAMINAR DE PERTO
Muitas imagens geradas por IA
parecem reais à primeira vista. Os programas utilizados podem criar imagens
fotorrealistas que muitas vezes só são reveladas como falsas em um controle
mais detalhado.
Portanto, a primeira dica é olhar de perto. Para isso, procure
por versões da imagem que tenham a maior resolução possível e amplie os
detalhes. A ampliação revelará quaisquer discrepâncias, erros ou clones de
imagem que possam não ter sido detectados à primeira vista.
2. PROCURAR A ORIGEM DA IMAGEM
Se você não tiver certeza se uma
imagem é real ou gerada por IA, tente descobrir mais sobre a origem dela. Às
vezes, outros usuários compartilham suas descobertas nos comentários, indicando
a fonte ou o primeiro post da foto.
Uma busca reversa da imagem
também pode ser útil: faça o upload da foto em ferramentas como Google, TinEye ou Yandex, o que muitas vezes
leva a mais informações e pode até revelar sua origem.
Se os resultados do
mecanismo de busca já incluírem checagens de fatos feitas por veículos de
imprensa respeitáveis, em geral eles fornecem clareza e contexto.
3.
PRESTAR ATENÇÃO ÀS PROPORÇÕES DO CORPO
As proporções do corpo das
pessoas retratadas estão corretas? Não é raro que imagens geradas por IA
mostrem discrepâncias: as mãos podem ser muito pequenas ou os dedos muito
longos. Ou a cabeça e os pés não combinam com o resto do corpo.
Este é o caso da falsificação em
que Putin teria se ajoelhado diante de Xi Jinping. O sapato traseiro da pessoa
ajoelhada, que supostamente é Putin, é desproporcionalmente grande e largo.
A
panturrilha da mesma perna parece alongada. A cabeça semicoberta da pessoa
também é muito grande e não combina com o resto do corpo.
4. CUIDADO COM OS ERROS TÍPICOS DE IA
A principal fonte de erros nos
programas de imagem por IA, como Midjourney e DALL-E, são atualmente as mãos.
As pessoas frequentemente têm um sexto dedo.
Aqui diz-se que o papa Francisco está usando um casaco de
designer. A imagem viralizou − embora o papa na foto da direita pareça ter
apenas quatro dedos e seus dedos na foto da esquerda sejam incomumente longos −
as fotos são falsas.
Outros erros comuns nas imagens
da IA são dentes demais, armações de óculos estranhamente deformadas ou orelhas
com formas irreais, como na imagem falsa de Xi e Putin mencionada.
Superfícies
refletoras como viseiras de capacete também causam problemas para os programas
de IA; às vezes parecem se dissolver, como na suposta prisão de Putin.
Mas o especialista em IA Henry
Ajder adverte: "Na versão atual, o Midjourney ainda comete erros como com
a imagem do papa, mas é muito melhor em gerar mãos do que nas versões
anteriores.
A direção é clara: não podemos esperar que os programas cometam
tais erros por muito mais tempo."
5. A IMAGEM PARECE ARTIFICIAL E SUAVIZADA?
O aplicativo Midjourney em
particular cria muitas imagens que parecem idealizadas, ou seja, boas demais
para serem verdadeiras. Nesse caso, siga seu instinto: uma imagem tão perfeita
e estética com pessoas impecáveis pode realmente ser real?
"Os rostos são puros
demais. Os tecidos mostrados também são muito harmoniosos", explica
Andreas Dengel, diretor do Centro Alemão de Pesquisa em IA.
A pele das pessoas é
frequentemente lisa e livre de qualquer imperfeição, e seus cabelos e dentes
são impecáveis, o que geralmente não é o caso na realidade.
Muitas fotos também
têm um aspecto artístico que dificilmente pode ser alcançado mesmo por
fotógrafos profissionais em estúdio e com posterior edição de imagens.
Os programas de IA obviamente criam
com frequência imagens idealizadas que parecem perfeitas e são destinadas a
agradar muitas pessoas. Isto é precisamente uma fraqueza dos programas, porque
torna algumas falsificações reconhecíveis.
6. EXAMINAR O FUNDO DA IMAGEM
Às vezes, o fundo de uma imagem
revela a manipulação. Aqui também podem ser mostrados objetos deformados, por
exemplo, lanternas. Em alguns casos, os programas de IA clonam pessoas e
objetos e os utilizam duas vezes. E não é raro que o fundo das imagens de IA
esteja fora de foco. Mas mesmo esse efeito pode conter erros.
CONCLUSÃO
Muitas imagens geradas por IA
podem ser identificadas como falsas com um pouco de pesquisa. Mas a tecnologia
está ficando mais aprimorada, e os erros provavelmente serão mais raros no
futuro.
Os detectores de IA como o
Hugging Face podem ajudar a descobrir manipulações? De acordo com o que
descobrimos, os detectores fornecem pistas, mas nada mais.
Os especialistas que
entrevistamos tendem a aconselhar contra seu uso, dizendo que as ferramentas
não estão totalmente desenvolvidas. Mesmo fotos genuínas são declaradas falsas
e vice-versa.
A questão do que é real e do que
não é nem sempre pode ser respondida de forma confiável por aplicativos de
detectores.
É uma "corrida tecnológica" com a inteligência
artificial, diz Antonio Krüger, pesquisador de IA da Universidade do
Sarre. "Acho que temos que nos acostumar com o fato de que não se pode
realmente confiar em nenhuma imagem na internet."
Kathrin Wesolowski
-Thomas Sparrow- Joscha Weber - Deutsche Welle