Em busca de tecnologias anti-inflamatórias


Usuários de mídias sociais querem a garantia de não estarem sendo manipulados.

A lista de efeitos colaterais que a arquitetura da comunicação em rede produz hoje é extensa: polarização exacerbada, interferência do poder econômico ou geopolítico nas democracias ocidentais, erosão da própria ideia de realidade ou, ainda, massacres e violência étnica. 

Como diz a provocação da socióloga turca Zeynep Tufekci: “Estamos construindo uma distopia só para fazer com que as pessoas cliquem em anúncios”. 

Essa percepção leva à busca por tecnologias anti-inflamatórias. Em outras palavras, usuários das diferentes mídias sociais querem cada vez mais confiar em que, ao utilizar aquele produto, não estarão sendo manipulados. 

Hoje, atores privados e estatais aprenderam a capturar as mídias sociais para lançar campanhas de manipulação. O sucesso delas é sempre maior quando apelam para sentimentos inflamatórios, como medo, ódio, anomia e insegurança.

Quando ocorreram as revelações do caso Snowden, ficou evidente que a ideia de privacidade estava em risco. As mesmas mídias sociais haviam se tornado ferramentas de vigilância constante. 

Por pressão do próprio consumidor, houve mudanças. A Apple blindou seus produtos, tornando-os mais seguros. WhatsApp, Telegram e Signal adotaram modelos de criptografia de ponta a ponta, impedindo que as comunicações pudessem ser interceptadas em trânsito.


Nas configurações, algumas redes mostram um histórico de login. É sempre bom revisar essa página e confirmar se não há um acesso que não foi seu. Algumas até têm uma função para que o usuário seja notificado toda vez que alguém tenta entrar na conta, o que pode ser uma boa forma de alerta LIONEL BONAVENTURE/AFP

A Mozilla e outras empresas criaram modos privados de navegação. Serviços como VPNs (redes virtuais privadas) deram um salto. Em suma, surgiu um mercado crescente para produtos que protegem a privacidade.

Da mesma forma como ocorreu com a privacidade, estamos no momento em que há demanda para a criação de produtos não inflamatórios. O usuário de mídias sociais quer ter mais segurança de que o conteúdo servido a ele não é parte de campanhas de manipulação. 

Para isso, há várias possibilidades. Uma delas é lidar com as distorções geradas pelos algoritmos que selecionam os conteúdos. Mídias sociais são em geral calibradas para gerar cliques, independentemente do que vai ser clicado. Para isso, os algoritmos testam as preferências dos usuários o tempo todo. 

No entanto, como conteúdos radicais acabam atraindo mais atenção, há um viés dos próprios algoritmos em indicá-los. Alguém que busca por um vídeo sobre um tema simples, por exemplo, muitas vezes acaba sendo direcionado para um amplo cardápio de vídeos com teorias da conspiração.

Outro ponto é a capacidade de viralizar mensagens. Estudos de Oxford e do ITS Rio mostraram que plataformas como o WhatsApp estavam sendo usadas para viralizar conteúdos artificialmente, por meio de automação, contas falsas e coordenação de grupo  de usuários.

Vale notar que esse tipo de “impulsionamento” não é fornecido pela própria plataforma, mas sim por empresas e organizações que aprenderam a capturar sua arquitetura para amplificar artificialmente as mensagens. Em outras palavras, transformaram comunicação interpessoal em “broadcast”, cobrando por isso.

O desafio é enorme e exige criatividade. Como diz McLuhan: “Nossa ansiedade resulta de tentar fazer o trabalho de hoje com as ferramentas de ontem”.

Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro.

Fonte: coluna jornal FSP

 

Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br