Usuários de mídias sociais querem a garantia de não
estarem sendo manipulados.
A lista de efeitos colaterais que a arquitetura da
comunicação em rede produz hoje é extensa: polarização exacerbada,
interferência do poder econômico ou geopolítico nas democracias ocidentais,
erosão da própria ideia de realidade ou, ainda, massacres e violência
étnica.
Como diz a provocação da socióloga turca Zeynep Tufekci:
“Estamos construindo uma distopia só para fazer com que as pessoas cliquem em
anúncios”.
Essa percepção leva à busca por tecnologias
anti-inflamatórias. Em outras palavras, usuários das diferentes mídias sociais
querem cada vez mais confiar em que, ao utilizar aquele produto, não estarão
sendo manipulados.
Hoje, atores privados e estatais aprenderam a capturar
as mídias sociais para lançar campanhas de manipulação. O sucesso delas é
sempre maior quando apelam para sentimentos inflamatórios, como medo, ódio,
anomia e insegurança.
Quando ocorreram as revelações do caso Snowden, ficou
evidente que a ideia de privacidade estava em risco. As mesmas mídias sociais
haviam se tornado ferramentas de vigilância constante.
Por pressão do próprio consumidor, houve mudanças. A
Apple blindou seus produtos, tornando-os mais seguros. WhatsApp, Telegram e
Signal adotaram modelos de criptografia de ponta a ponta, impedindo que as
comunicações pudessem ser interceptadas em trânsito.
Nas configurações, algumas redes mostram um histórico de
login. É sempre bom revisar essa página e confirmar se não há um acesso que não
foi seu. Algumas até têm uma função para que o usuário seja notificado toda vez
que alguém tenta entrar na conta, o que pode ser uma boa forma de alerta LIONEL
BONAVENTURE/AFP
A Mozilla e outras empresas criaram modos privados de
navegação. Serviços como VPNs (redes virtuais privadas) deram um salto. Em
suma, surgiu um mercado crescente para produtos que protegem a privacidade.
Da mesma forma como ocorreu com a privacidade, estamos
no momento em que há demanda para a criação de produtos não inflamatórios. O
usuário de mídias sociais quer ter mais segurança de que o conteúdo servido a
ele não é parte de campanhas de manipulação.
Para isso, há várias possibilidades. Uma delas é lidar
com as distorções geradas pelos algoritmos que selecionam os conteúdos. Mídias
sociais são em geral calibradas para gerar cliques, independentemente do que
vai ser clicado. Para isso, os algoritmos testam as preferências dos usuários o
tempo todo.
No entanto, como conteúdos radicais acabam atraindo mais
atenção, há um viés dos próprios algoritmos em indicá-los. Alguém que busca por
um vídeo sobre um tema simples, por exemplo, muitas vezes acaba sendo
direcionado para um amplo cardápio de vídeos com teorias da conspiração.
Outro ponto é a capacidade de viralizar mensagens.
Estudos de Oxford e do ITS Rio mostraram que plataformas como o WhatsApp
estavam sendo usadas para viralizar conteúdos artificialmente, por meio de
automação, contas falsas e coordenação de grupo de usuários.
Vale notar que esse tipo de “impulsionamento” não é
fornecido pela própria plataforma, mas sim por empresas e organizações que
aprenderam a capturar sua arquitetura para amplificar artificialmente as
mensagens. Em outras palavras, transformaram comunicação interpessoal em
“broadcast”, cobrando por isso.
O desafio é enorme e exige criatividade. Como diz
McLuhan: “Nossa ansiedade resulta de tentar fazer o trabalho de hoje com as
ferramentas de ontem”.
Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e
Sociedade do Rio de Janeiro.
Fonte: coluna jornal FSP