·
O conceito de inteligência artificial faz 50 anos neste mês. O
termo é creditado a John McCarthy, professor de matemática do Dartmouth
College, nos Estados Unidos.
Ele adotou a expressão em 1956 em uma conferência para trabalhar
"a conjectura de que todos os aspectos do aprendizado e outras
características da inteligência podem em princípio ser precisamente descritas
de modo que uma máquina seja capaz de simulá-las".
Para celebrar a data, vale voltar a 1942, quando o escritor de
ficção científica Isaac Asimov criou suas três leis da robótica.
A primeira diz que "um robô não pode ferir um ser
humano".
A segunda diz que o robô "deve obedecer às ordens que lhe
sejam dadas por seres humanos", exceto se houver conflito com a primeira
lei.
A terceira diz que o robô "deve proteger sua própria
existência desde que tal proteção não entre em conflito com a primeira ou
segunda lei".
Nessa época, a ideia de automação ainda pertencia ao território
da ficção. Hoje, essa questão não só está entre nós de forma prática como gera
questões que dão curto-circuito nas leis de Asimov. Criar princípios éticos
para automação deixou de ser um exercício literário para se tornar uma questão
prática urgente.
Basta perguntar à Alemanha. Em junho, o Ministério do Transporte
e da Infraestrutura Digital daquele país publicou um relatório estabelecendo os
princípios básicos que deverão ser aplicados pelos carros autônomos.
Como se sabe, estamos no limiar do momento em que esses carros
começarão a tomar as ruas das cidades.
A questão é que inevitavelmente haverá situações em que a
máquina (guiada por software) precisará tomar decisões "éticas" que
terão impacto na vida e na integridade física de seres humanos. Em outras
palavras, as leis da robótica clássicas são insuficientes para resolver essas
situações.
Tanto é que o documento alemão traz não três, mas 20 princípios
que deverão ser respeitados pelos carros autônomos.
A leitura do documento é fascinante. Há princípios gerais como a
determinação de que "o propósito das modalidades autônomas de transporte é
melhorar a segurança" e que "a proteção de indivíduos tem precedência
sobre qualquer outra consideração utilitária".
No entanto, acidentes muitas vezes serão inevitáveis. Nesses
casos, "os sistemas devem ser programados para aceitar danos a animais ou
a propriedades se isso significar a segurança de pessoas".
Além disso, em tragédias iminentes, "é estritamente
proibido fazer distinções com base em características pessoais (idade, gênero,
estado mental etc.)" sobre quem será atingido. É também proibido por
considerações utilitárias "sacrificar qualquer pessoa não envolvida na
geração dos riscos de mobilidade".
Em outras palavras, vamos precisar ensinar às máquinas coisas
que nós, humanos, nem sequer sabemos enunciar precisamente, como moralidade e
bom senso. Se John McCarthy estivesse vivo, convocaria uma conferência para
trabalhar com a "ética artificial".
Ronaldo Lemos - advogado, diretor do
Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITSrio.org). Mestre em
direito por Harvard. Pesquisador e representante do MIT Media Lab no Brasil.
Fonte: coluna jornal FSP