"É preciso transformar discurso em prática
para ter IA justa", diz pesquisador de Oxford.
Callum
Cant coordena o projeto Fair Work For AI, que oferece consultoria a big techs
para tornar tecnologia mais ética.
Quase todos dizem ser contra a discriminação e a
favor da transparência e da compreensão, mas cada um pode dar diferentes
sentidos a esses valores.
Construir consensos sobre esses princípios é um passo
fundamental para tornar as tecnologias com base em inteligência artificial mais éticas,
segundo o pesquisador do Oxford Internet Institute Callum Cant, que coordena o
projeto Fair Work For AI.
Patrocinada pela Aliança Global pela ação em IA,
que reúne algumas das maiores empresas de tecnologia, essa
iniciativa desenvolveu dez princípios para garantir que o desenvolvimento e o
uso de inteligência artificial seja mais ético não só na publicidade.
Para
implementá-los, oferece consultorias a empresas como Microsoft, Uber e a
entidades como a OIT (Organização Internacional do Trabalho).
VEJA OS DEZ PRINCÍPIOS:
- Garantir trabalho decente,
segundo as normas da OIT
- Montar cadeias de produção
justas
- Compreensão —deve ficar
claro aos trabalhadores da cadeia de produção como o algoritmo funciona
- Busca de equidade —evitar
que os sistemas de IA aumentem a discriminação
- Tomada de decisões justa
—acionistas envolvidos nesses projetos devem prestar contas
- Uso honesto dos dados
—limitar a concentração de informação e considerar a proteção de dados
pessoais
- Incrementar segurança
—evitar a superexploração do trabalho e a vigilância
- Criação de empregos que
resistam às mudanças e garantam estabilidade
- Evitar projetos
inapropriados —os testes devem seguir altos padrões para prevenir danos
- Dar voz a coletivos de
trabalhadores —ouvir diferentes atores, já que os riscos e as recompensas
de sistemas de IA são entendidos de maneiras diferentes
FOLHA DE SÃO PAULO