A ética das máquinas que aprendem


O matemático norte-americano Danny Hillis escreveu em fevereiro deste ano um intrigante ensaio dizendo que a era do Iluminismo acabou. No seu lugar, estaríamos entrando na "era do entrelaçamento".

Hillis entende por Iluminismo a capacidade humana de compreender as leis da natureza e a partir delas criar ferramentas que nos permitem voar, comunicar, fabricar e assim por diante. Nesse modelo a humanidade está conceitualmente no centro do universo.

Já na era do "entrelaçamento", que se inicia agora, perdemos a centralidade. Deixamos de ser capazes de entender nossas próprias ferramentas. Vamos continuar usando-as, mas sem saber direito como funcionam. Ele dá exemplos. Alguns distantes do cotidiano, como a biologia sintética. Outros, já muito próximos, como o chamado "machine learning" (aprendizado de máquina).

Trata-se da capacidade dos computadores de aprender para além do que foram programados. Esse modelo inverte a lógica tradicional de programação. Antes, para explicar ao computador o que é um "gato", seria necessário escrever um programa com todos os elementos que compõem o animal. Tarefa impossível.

Já com o aprendizado de máquina, a estratégia é outra: treinar computadores com enormes quantidades de dados, por exemplo, infinitas fotos, vídeos e áudios de gatos. Com isso, a máquina começa a reconhecer os padrões. Passa a ser capaz de identificar um animal, mesmo que não tenha sido programado previamente. É uma habilidade que emerge, ainda que ninguém seja capaz de entender ao certo como ela funciona. Nas palavras da revista "Wired", uma das mais importantes publicações de tecnologia, computadores não serão mais "programados". Serão "treinados", assim como treinamos cães, golfinhos ou humanos.

Os usos para o aprendizado de máquina serão enormes. Máquinas serão mais "humanas". Será possível ligar para um call center automatizado e achar que estamos conversando com uma pessoa do outro lado. As máquinas poderão aprender a se comunicar da mesma forma como nós nos comunicamos.

Isso levanta questões éticas. Ao treinarmos as máquinas para entender como nos comportamos e agimos, elas certamente serão também capazes de nos treinar de volta. A cada clique, compartilhamento ou coraçãozinho que enviamos por meio das redes sociais, estamos ensinando à máquina os conteúdos que capturam nossa atenção, o que nos mobiliza, comove, nos deixa alegres ou nos indigna. A máquina aprende a capturar nossa atenção. Com isso, nossas ferramentas poderão também nos manipular. Fica clara a ideia de "entrelaçamento".

Não por acaso, Stephen Hawking, Bill Gates e outras personalidades assinaram uma carta chamando a atenção para a dimensão ética da inteligência artificial (IA). Nas palavras de Hawking: "No curto prazo, o impacto da IA depende de quem a controla. No longo prazo, dependerá do fato de ser controlável ou não".

Ronaldo Lemos - advogado, diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.

Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br