Cada vez mais decisões são tomadas automaticamente
por meio de algoritmos, expressões matemáticas que orientam a resolução de
problemas. A maioria das pessoas pode nem ter percebido, mas cada vez mais
atividades cotidianas já são ou serão governadas por eles.
Os exemplos são muitos. Preços de passagens aéreas,
que um dia podem estar baratas e, no outro, caríssimas. O valor de um
seguro-saúde ou de um seguro de veículo. A aprovação ou não de um pedido de
empréstimo e assim por diante.
Há ao menos dois desafios relevantes nessa questão.
O primeiro é que algoritmos podem rapidamente se tornar
"preconceituosos". Como são alimentados por informações segmentadas,
distorções acabam se tornando frequentes. Por exemplo, um algoritmo treinado
para reconhecer integrantes da diretoria de uma empresa passou a acreditar que
apenas homens poderiam fazer parte dessa categoria. Outro passou a entender que
mulheres só trabalhariam em funções com salários menores. Eliminar esses
preconceitos eletrônicos é tarefa essencial.
O segundo desafio dos algoritmos é que eles estão
ficando cada vez mais incompreensíveis. Com o avanço da computação baseada em
redes neurais (que emulam o funcionamento do cérebro humano), os algoritmos
estão deixando de ser programados para serem "treinados". Para isso,
são alimentados com uma grande quantidade de informações e criam correlações
autonomamente entre elas. O resultado é que nem o programador do sistema
entende como as decisões passam a ser feitas a partir daí. Em outras palavras,
as decisões tornam-se produto de uma caixa preta, inescrutável. Se alguém
perguntar por que exatamente um empréstimo foi negado por um algoritmo desse
tipo, receberá como resposta, verdadeira, um "não sei".
Com base nisso, a União Europeia criou em abril o
que alguns acadêmicos vêm chamando de "direito a uma explicação". Por
ele, um cidadão teria o direito a "uma explicação sobre a decisão tomada
sobre si após uma análise algorítmica que o tenha significativamente
afetado".
Esse conceito promete gerar intensos debates,
dentre outras razões, porque esbarra em limites técnicos sobre o que dá para
explicar efetivamente ou não.
A polêmica deve chegar ao Brasil. Inspirado pelo
modelo europeu, o projeto de lei 330 que está tramitando no Senado incorporou
direito semelhante àquele definido na Europa. O projeto diz que "toda
pessoa natural tem direito a não ser excluída, prejudicada ou de qualquer forma
afetada (...) por decisões fundamentadas exclusivamente [por algoritmos]".
Diz também que essas decisões serão "passíveis de impugnação, sendo
assegurado o direito à obtenção de decisão humana fundamentada após a
impugnação".
Mais uma vez, uma tecnologia milenar será a
principal ferramenta para lidar com esse desafio completamente contemporâneo: o
direito. Haverá novos capítulos nesse debate.
Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e
Sociedade do Rio de Janeiro (ITSrio.org). Mestre em direito por Harvard.
Pesquisador e representante do MIT Media Lab no Brasil.
Fonte: coluna jornal FSP