Marco legal da inteligência artificial deve
proteger pessoas, diz relatora.
Para advogada,
ferramentas afetam cidadãos e regulação exige cuidado.
A inteligência artificial está na análise
de crédito, nos contratos de seguros, em previsões e decisões que afetam a vida
das pessoas, e por isso precisa ser regulada com cuidado, defende Laura
Schertel, relatora da Comissão de Juristas do Marco Legal da Inteligência
Artificial.
"Você acaba
classificando pessoas, classifica os consumidores, atribui muitas vezes notas
identificando quem tem menor ou maior risco de inadimplência.
Uma pessoa pode
pegar um crédito mais caro por causa disso, ou então um seguro mais caro",
diz ela.
A comissão de juristas foi instalada no dia 30
de março, após o PL 872/2021 ser aprovado na Câmara dos Deputados.
O objetivo é auxiliar na formulação do projeto do
lei, que está no Senado e recebeu críticas de especialistas pela rapidez com
que avançou no Congresso.
Para Schertel, a
regulação não deve ser feita às pressas. "Também temos um problema
relacionado à transparência.
Muitas vezes há uma dificuldade de compreender
exatamente quais foram os critérios utilizados para que a decisão fosse
tomada", afirma.
As ferramentas de
inteligência artificial estão presentes tanto em atividades mais simples —esta
entrevista, por exemplo, foi transcrita por um bot (um robô programado para
executar uma função) disponível no Telegram— até nas mais complexas, como no
controle de carros autônomos.
FOLHA DE SÃO PAULO