O que a IA e a Cloroquina têm em
comum?
O leitor já compreendeu o impacto astronômico da inteligência
artificial (IA) nos negócios e nos governos, tanto que as grandes economias se
sentiram impelidas a estabelecer planejamentos estratégicos para a tecnologia.
O que nem todo mundo ainda compreende são os riscos reais que a tecnologia
oferece.
Um apanhado histórico da inteligência
artificial nos conduz a uma montanha-russa de promessas exageradas e decepções
gigantescas.
Um de seus marcos é o surgimento das redes neurais artificiais
(RNAs) em 1958, quando Frank Rosenblat inventa o “Perceptron”.
No entanto, foi
só nos anos 2010 que tais redes se tornaram a principal força motriz da área.
Graças a uma união favorável de fatores catalisadores, como a explosão da
disponibilidade de dados e a possibilidade de utilizar hardware especializado
em multiplicação de matrizes, as RNAs provocaram uma revolução espantosa,
surpreendendo o mundo com sua capacidade de lidar com tarefas complexas.
A área
foi rebatizada para “Deep Learning”, alusão ao número cada vez maior de camadas
de neurônios nas arquiteturas das redes, agora mais profundas.
Com “Deep Learning” invadindo nossas
vidas cotidianas, não foram poucos os futurólogos
que surgiram com as velhas profecias de sempre: a singularidade e a revolta das máquinas,
com direito a Schwarzenegger em seu figurino de Exterminador do Futuro.
Mas não
nos enganemos. A probabilidade de uma RNA atual vir a ganhar consciência é tão
pequena quanto o tamanho de um neurônio biológico.
A grande ameaça da IA, pasme, é
reproduzir exageradamente bem o comportamento humano.
Aliás, reproduzir aquilo
que de pior temos: os preconceitos.
É preciso ficar claro que as RNAs são
máquinas de correlação, e não de causa e efeito.
Mais do que isso, num país
onde o presidente da República não entende que “correlação não implica
necessariamente em causa”, precisamos ser didáticos e instruir o público que
podem existir diversas correlações nos dados, mas que ciência boa é aquela que
olha com desconfiança para afirmações categóricas a respeito de causalidade.
Caso contrário, seríamos obrigados a admitir que os gastos do governo
americano em ciência são os responsáveis pelo número de suicídios por
estrangulamento e enforcamento nos EUA.
O maior exemplo de como boa parcela
da população não entende a diferença entre correlação e causalidade são os
arroubos pseudocientíficos na CPI da Covid em defesa do uso da cloroquina para
combater o vírus.
É certo que os principais responsáveis pela tragédia
sanitária que vivemos agiram por ignorância: desconhecem a diferença entre
correlação e causa, e não compreendem as especificidades e nuances do método
científico.
Ao mesmo risco estamos submetidos
quando confiamos cegamente nas RNAs.
Se treinarmos tais métodos para que
descubram padrões sobre dados díspares, os modelos gerados irão reproduzir as
disparidades.
Caso clássico de injustiça protagonizada pela IA é o da
ferramenta COMPAS (Correctional Offender Management Profiling for Alternative
Sanctions), que auxiliava cortes americanas a estimar a probabilidade de
reincidência criminal por parte dos réus.
Alguém se surpreenderia ao descobrir
que o algoritmo apontava indivíduos negros como mais prováveis de reincidir?
A área de “Fairness in Machine
Learning” vem ganhando força na academia, servindo de alerta a todos que da IA
usufruem: não basta que os modelos aprendam bem os padrões existentes nos dados
— eles precisam ser impedidos de propagar preconceitos.
O esforço de justiça em
IA está apenas começando, com muitas possibilidades para se combater os vieses
prejudiciais.
Podem-se desenvolver modelos que deliberadamente combatam fatores
de confusão previamente anotados. Pode-se trabalhar no desenvolvimento de bases
de dados sintéticas que sejam ajustadas para descontar tais fatores.
O que não
se pode é fingir que preconceitos não existem. Ou que não é um problema de
todos nós se as máquinas os reproduzirem.
Em tempos de governos de extrema
direita, que exalam e promovem preconceitos, é notório que a principal luta
dentro da IA seja a mesma que travamos no dia a dia: a batalha contra
injustiças e preconceitos.
Rodrigo C. Barros - cientista da
computação com doutorado em inteligência artificial pela USP. É pesquisador em
IA na PUCRS e diretor de Pesquisas da Teia Labs.