Cortana, personagem de inteligência artificial da série de
games de ficção científica "Halo", da Microsoft
|
A inteligência artificial já está entre nós. Muita gente ainda
não se dá conta, mas aos poucos ela já aparece na vida cotidiana. Um exemplo
são os aplicativos que reconhecem "linguagem natural". Por eles
conversamos com a máquina como falamos com outras pessoas.
E a máquina responde.
Outro componente cada vez mais visível é a análise de imagens.
Há serviços de hospedagem de fotos capazes de classificar automaticamente as
imagens por seu conteúdo (paisagem, grupos de pessoas, objetos etc.).
Esse tipo de análise identifica até mesmo conteúdo pornográfico,
sem a necessidade de intervenção humana. Por meio do chamado "aprendizado
de máquina", o computador "enxerga" o mundo e distingue o que há
nele.
Outra aplicação recente são os "chatbots",
aplicativos que conversam com os usuários e desempenham tarefas.
Em breve, será possível mandar uma mensagem de texto ou voz para
seu "assistente virtual" reservar uma mesa em um restaurante, emitir
uma passagem aérea ou entregar um "bom vinho" na sua casa (o próprio
assistente decidirá o que é "bom" para você).
Em suma, estamos em um processo acelerado de
"cognificação". Estamos adicionando "inteligência" às
aplicações de internet e também aos objetos físicos (como os carros conectados
e a chamada "internet das coisas").
Como toda nova tecnologia, a inteligência artificial traz
desafios. Em um workshop que conduzi na Universidade Columbia, identificamos
alguns.
O primeiro é a possível redução de empregos. Dois professores de
Oxford (Frey e Osborne) publicaram estudo apontando que 47% dos empregos
nos EUA vão desaparecer em razão da automação nas próximas duas décadas (e não
haverá muro que possa mudar essa situação).
Outro desafio é assegurar que a inteligência artificial seja
utilizada em benefício da humanidade, e não contra ela. Essa preocupação levou
nomes de peso, como Stephen Hawking, a assinar uma carta aberta em defesa de um
uso responsável e ético da inteligência artificial.
Há também pontos cegos na tecnologia. Um estudo recente mostrou
que uma aplicação de reconhecimento facial foi incapaz de identificar rostos de
afrodescendentes.
A razão alegada foi que os engenheiros que desenvolveram a
tecnologia utilizaram predominantemente imagens de brancos para alimentar a
base de dados da aplicação, tornando-a virtualmente inútil para boa parte da
população global.
Outra preocupação crucial é a moralidade. Como ensinar "bom
senso" ou "ponderação" para uma máquina? Por exemplo, nos carros
que se autodirigem, se um acidente é inevitável, quem a máquina deverá tentar
salvar? O passageiro do carro ou dez crianças que atravessam a rua naquele
momento?
São dilemas cujas variações são infinitas e precisarão ser
enfrentados. Na minha opinião, o melhor caminho para isso é fazer avançar uma
outra tecnologia, só que nesse caso milenar: o direito
Ronaldo Lemos - advogado, diretor do
Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em
direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.
Fonte: coluna jornal FSP