MERCADO DE TRABALHO 2


"É preciso transformar discurso em prática para ter IA justa", diz pesquisador de Oxford.

Callum Cant coordena o projeto Fair Work For AI, que oferece consultoria a big techs para tornar tecnologia mais ética.

Quase todos dizem ser contra a discriminação e a favor da transparência e da compreensão, mas cada um pode dar diferentes sentidos a esses valores. 

Construir consensos sobre esses princípios é um passo fundamental para tornar as tecnologias com base em inteligência artificial mais éticas, segundo o pesquisador do Oxford Internet Institute Callum Cant, que coordena o projeto Fair Work For AI.

Patrocinada pela Aliança Global pela ação em IA, que reúne algumas das maiores empresas de tecnologia, essa iniciativa desenvolveu dez princípios para garantir que o desenvolvimento e o uso de inteligência artificial seja mais ético não só na publicidade. 

Para implementá-los, oferece consultorias a empresas como Microsoft, Uber e a entidades como a OIT (Organização Internacional do Trabalho).

VEJA OS DEZ PRINCÍPIOS:

  • Garantir trabalho decente, segundo as normas da OIT
  • Montar cadeias de produção justas
  • Compreensão —deve ficar claro aos trabalhadores da cadeia de produção como o algoritmo funciona
  • Busca de equidade —evitar que os sistemas de IA aumentem a discriminação
  • Tomada de decisões justa —acionistas envolvidos nesses projetos devem prestar contas
  • Uso honesto dos dados —limitar a concentração de informação e considerar a proteção de dados pessoais
  • Incrementar segurança —evitar a superexploração do trabalho e a vigilância
  • Criação de empregos que resistam às mudanças e garantam estabilidade
  • Evitar projetos inapropriados —os testes devem seguir altos padrões para prevenir danos
  • Dar voz a coletivos de trabalhadores —ouvir diferentes atores, já que os riscos e as recompensas de sistemas de IA são entendidos de maneiras diferentes


FOLHA DE SÃO PAULO
Tel: 11 5044-4774/11 5531-2118 | suporte@suporteconsult.com.br