O
matemático norte-americano Danny Hillis escreveu em fevereiro deste ano um
intrigante ensaio dizendo que a era do Iluminismo acabou. No seu lugar,
estaríamos entrando na "era do entrelaçamento".
Hillis
entende por Iluminismo a capacidade humana de compreender as leis da natureza e
a partir delas criar ferramentas que nos permitem voar, comunicar, fabricar e
assim por diante. Nesse modelo a humanidade está conceitualmente no centro do
universo.
Já
na era do "entrelaçamento", que se inicia agora, perdemos a
centralidade. Deixamos de ser capazes de entender nossas próprias ferramentas.
Vamos continuar usando-as, mas sem saber direito como funcionam. Ele dá
exemplos. Alguns distantes do cotidiano, como a biologia sintética. Outros, já
muito próximos, como o chamado "machine learning" (aprendizado de
máquina).
Trata-se
da capacidade dos computadores de aprender para além do que foram programados.
Esse modelo inverte a lógica tradicional de programação. Antes, para explicar
ao computador o que é um "gato", seria necessário escrever um
programa com todos os elementos que compõem o animal. Tarefa impossível.
Já
com o aprendizado de máquina, a estratégia é outra: treinar computadores com
enormes quantidades de dados, por exemplo, infinitas fotos, vídeos e áudios de
gatos. Com isso, a máquina começa a reconhecer os padrões. Passa a ser capaz de
identificar um animal, mesmo que não tenha sido programado previamente. É uma
habilidade que emerge, ainda que ninguém seja capaz de entender ao certo como
ela funciona. Nas palavras da revista "Wired", uma das mais
importantes publicações de tecnologia, computadores não serão mais
"programados". Serão "treinados", assim como treinamos
cães, golfinhos ou humanos.
Os
usos para o aprendizado de máquina serão enormes. Máquinas serão mais
"humanas". Será possível ligar para um call center automatizado e
achar que estamos conversando com uma pessoa do outro lado. As máquinas poderão
aprender a se comunicar da mesma forma como nós nos comunicamos.
Isso
levanta questões éticas. Ao treinarmos as máquinas para entender como nos
comportamos e agimos, elas certamente serão também capazes de nos treinar de
volta. A cada clique, compartilhamento ou coraçãozinho que enviamos por meio
das redes sociais, estamos ensinando à máquina os conteúdos que capturam nossa
atenção, o que nos mobiliza, comove, nos deixa alegres ou nos indigna. A
máquina aprende a capturar nossa atenção. Com isso, nossas ferramentas poderão
também nos manipular. Fica clara a ideia de "entrelaçamento".
Não
por acaso, Stephen Hawking, Bill Gates e outras personalidades assinaram uma
carta chamando a atenção para a dimensão ética da inteligência artificial (IA).
Nas palavras de Hawking: "No curto prazo, o impacto da IA depende de quem
a controla. No longo prazo, dependerá do fato de ser controlável ou não".
Ronaldo Lemos - advogado, diretor do
Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em
direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.