A
ciência que poderia desafiar a morte combina tecnologias digitais aliadas à
inteligência artificial e à engenharia genética
“O homem é um deus em ruínas”, escreveu o
americano Ralph Waldo Emerson no século 19. Desde que nossos antepassados
distantes contemplaram, pela primeira vez, a dimensão divina, vivemos uma
divisão profunda entre o nosso lado animal e o nosso lado capaz de imaginar o
eterno.
Essa
natureza dual entre o animal e o semidivino, o mortal e o imortal, é nossa
característica mais marcante, tema de grandes livros e pensamentos filosóficos.
Hoje é, também, tema que inspira várias pesquisas científicas, da engenharia
genética à inteligência artificial. Será que a ciência vai ser capaz de
transformar o ser humano a ponto de redefinir nossa relação com a morte?
Duzentos
anos atrás, Mary Shelley publicava "Frankenstein", um romance gótico
que continua sendo tão relevante hoje quanto foi no início do século 19. A
ideia de que a ciência pode vencer a morte é pelo menos tão antiga quanto os
alquimistas. No caso de Shelley, a ciência de ponta da época era o uso de
correntes elétricas para estimular o movimento muscular, relação descoberta por
Luigi Galvani e Alessandro Volta. (Para detalhes ver capítulos 37 e 38 de meu
livro "Criação Imperfeita".)
Chris Dancy é hiperconectado a dispositivos que
monitoram a qualidade do ar que respira,
volume
de sua voz, alimentos que ingere, temperatura ambiente e umidade, entre outras
coisas -
Hoje, a ciência de ponta que poderia desafiar a morte combina tecnologias
digitais aliadas à inteligência artificial (IA) com a engenharia genética. Dos
vários temas correlatos, discuto aqui a IA e se devemos ou não nos preocupar
com esse tipo de tecnologia. Não que esteja prestes a desafiar a morte, longe
disso. Mas seu impacto no mundo em que vivemos e no futuro da espécie humana
deve ser considerado com cuidado, e quanto antes melhor.
O mundo depende fundamentalmente dos computadores. Carros, redes elétricas,
aeroportos, trens, o sistema bancário, eleitoral, hospitais, as atividades
individuais e profissionais do leitor, nada escapa. Paralelamente a essa
dependência crescente, os computadores estão ficando mais espertos, dominando o
mundo um pouco mais a cada dia. Com isso, passam a controlar tarefas cada vez
mais complexas, tomando o lugar dos humanos.
Das
cirurgias de alta precisão e diagnósticos médicos à automação de fábricas e
linhas de produção, da exploração e tratamento de minérios em minas ou águas
profundas ou em ambientes altamente radioativos até tomadas de decisão no
mercado de capitais, nada parece escapar das máquinas digitais. Em breve, com
veículos autônomos, será a vez dos caminhoneiros, dos motoristas de ônibus
escolares, dos motoristas de táxi, dos maquinistas, criando um vácuo perigoso
no mercado de trabalho, afetando milhões de pessoas, que precisariam ser
retreinadas.
Por enquanto, ao menos, a tecnologia digital está se apoderando do mundo porque
nós assim queremos. A questão, e temor de muitos, é se isso pode mudar. Se as
tecnologias de IA tornarem-se autônomas, capazes de se programar e de ter
intenções próprias, poderiam efetivamente controlar o mundo. Este é o argumento
do filósofo Nick Bostrom, em seu livro "Superinteligência", da
crusada anti-IA do bilionário Elon Musk e do medo do físico Stephen Hawking,
dentre outros.
Um dos problemas dessa conversa é como definir inteligência. Existe a IA do
futuro, aquela que vemos nos filmes e livros de ficção científica, e a do
presente, que está muito longe dela. A gente vê o acrônimo IA por toda a parte,
algoritmos de aprendizado de máquinas, redes neurais, programas que vão
aprimorando sua eficiência por si mesmo, computadores que ganham de mestres
mundiais de xadrez e de Go.
Esse tipo de aplicação presente de IA não ameaça o futuro da espécie humana.
Por enquanto, refletem a inteligência de seus programadores que, no fim das
contas, servem os interesses de suas empresas, tentando ganhar nossa atenção e
dinheiro. Níveis atuais de IA (que não chamaria de IA) cumprem funções
especificadas por seus programadores. Não têm autonomia ou intenção própria.
Esta situação pode mudar? É aqui que começa o problema. Não sabemos a resposta;
não sabemos se uma máquina pode desenvolver autonomia e autoconsciência. As IA
de hoje estão muito, muito longe do famoso Hall, o computador no filme (e
livro) "2001: Uma Odisseia no Espaço", que resolveu matar todos os
humanos na espaçonave por não julgá-los competentes para contatar alienígenas
superinteligentes.
Por outro lado, avançar cegamente com a pesquisa em IA “porque podemos” me
parece profundamente irresponsável. Muito antes de construirmos uma máquina de
fato inteligente, se isso é realmente possível, a IA de menor porte causará
sérios problemas sociais, redefinindo o mercado de trabalho e o tipo de
habilidades e perícias que serão relevantes no futuro. Isso já está, aliás,
acontecendo. Portanto, antes de nos preocuparmos com os primos do Hall
dominando o mundo, deveríamos estar criando salvaguardas com a função de
garantir que as máquinas que criamos estão aqui para servir a humanidade, e não
para destruí-la aos poucos.
Marcelo
Gleiser - professor de física e astronomia
na Universidade Dartmouth (EUA), autor de “A Simples Beleza do Inesperado”.
Fonte:
coluna jornal FSP