Inteligência Humana e Artificial:
Parceria, Ética e Vieses
Vivemos
em uma época de exponencial revolução e inflexão, não só do ponto de vista
tecnológico mas também social e cultural.
A quantidade de dados geradas por
meios dos mais variados dispositivos, desde sensores em escala microscópica até
grandes equipamentos industriais e governamentais conectados na chamada IoT
(Internet of Things – Internet das Coisas), é enorme.
Hoje, praticamente tudo
gera dados! Inclusive nós, seres humanos, na interação com as mais diversas
tecnologias.
Ao mesmo tempo que estes dados são gerados, infraestruturas
computacionais, até alguns anos atrás não existentes, são capazes, agora, de
trafegar, armazenar e processar tais valores.
Disponibilizando-os, muitas
vezes, inclusive em tempo real e a diferentes usuários ao redor do globo.
Esta velocidade de geração de dados é tamanha que tornou-se
humanamente impossível analisarmos todos eles (e a tempo), sem o auxílio das
máquinas, para podermos tomar as decisões mais acertadas a respeito de nossas
vidas, nossos negócios e até mesmo nossas comunidades.
Diante desta
dificuldade, os modelos de Inteligência Artificial (IA) encontraram grande
valia e, dado o terreno agora fértil, principalmente em termos de novos
hardwares e arquiteturas computacionais, muitos modelos deles puderam ser
finalmente colocados à prova em aplicações reais, na resolução de problemas
complexos cotidianos ao homem, e tem se saído incrivelmente bem.
O aprendizado dos modelos de IA pode ser comparado ao das
crianças pequenas, que se baseiam em exemplos.
Se apresentarmos um conjunto de
imagens de gatos e cachorros, por exemplo, a uma rede neural, dizendo a ela a
classe da imagem em cada caso (“gato” ou “cachorro”), ela tentará aprender
padrões (no caso visuais) que maximizem suas chances de classificar novas
imagens de animais domésticos destas duas espécies no futuro.
Surge, porém, uma
grande questão: como evitar que modelos de IA tomem decisões enviesadas e
vexatórias aos seres humanos como veiculado na mídia nos últimos tempos em
casos reais?
Primeiramente, precisamos ter consciência de que nós mesmos
somos seres enviesados e por natureza, isto é, temos todo um contexto social,
histórico, cultural, político, enfim, que delineiam, em linhas gerais, nossa
forma de pensar, agir, tomar decisões e decidir o que é aceitável (“certo”) ou
não (“errado”).
Seguindo este pensamento, é claro que devemos construir modelos
inteligentes que evitem ao máximo prejudicar determinados seres humanos em face
a outros, principalmente para decisões mais complexas e com efeito
significativo em suas vidas como na segurança pública (prender alguém por
engano), saúde e diagnósticos médicos, decisões que afetem a vida financeira
dos indivíduos, dentro outros exemplos.
Surge até uma área da própria IA,
denominada xAI (Explainable AI – IA Explicável) que visa justamente tornar
claro, automaticamente, aos próprios seres humanos, os motivos de eventuais
tomadas de decisão pelos modelos inteligentes.
Tal área hoje é tida como
fundamental na construção de soluções de IA.
Entretanto, temos de compreender
que as máquinas reproduzem a inteligência humana e, se não eliminarmos muitos
dos nossos vieses em nossas próprias decisões e sociedade, os computadores
também tomarão decisões reproduzindo tais vieses.
Além disto, importante lembrar que, assim como para as crianças
pequenas, no treinamento dos modelos inteligentes, as bases de dados de treino
usadas são ponto chave para o sucesso ou fracasso da solução de IA.
Precisamos
ter bases com amostras representativas de todas as classes do problema, se
possível bem balanceadas e com dados de boa qualidade (sem ruídos ou
distorções, por exemplo).
Do mesmo modo que para a criança, se apresentarmos
erroneamente fotos de peixes como sendo representantes da classe “cachorro” ao
modelo, ele aprenderá padrões (traços visuais) de peixes para representar tal
classe, ao invés de traços de cães reais, e sua performance será muito ruim.
Daí a grande importância dos dados no processo do desenvolvimento do modelo de
IA como um todo.
Um outro conceito importante disseminado pela comunidade
internacional de IA, para evitar possíveis decisões errôneas das máquinas, é o
do “The Human in the Loop”, isto é, sempre delegar a decisão final, com base
nas predições dos modelos inteligentes, em especial em casos críticos como os
citados, a um ser humano.
Por um lado, o próprio homem pode detectar eventuais
vieses, tratar ou até mesmo analisar variáveis mais macro que o modelo não é
capaz de analisar.
Por outro lado, o modelo pode até apresentar novas
possibilidades ou evidenciar vieses nas próprias decisões humanas tomadas
tradicionalmente até então.
A IA e as máquinas não vieram para substituir os seres humanos,
mas para automatizar suas tarefas mais braçais e desgastantes e auxiliá-los no
processo decisório, delegando a eles atividades mais desafiadoras, motivantes,
criativas e prazerosas!
O futuro da Inteligência passa pela parceria
homem-máquina!
GUSTAVO
BOTELHO DESOUZA – PhD, especialista em Inteligência
Artificial