Países mais ricos do mundo definem código de conduta em Inteligência Artificial

Países devem incentivar o desenvolvimento de IA que respeite os direitos humanos. Empresas devem ter abordagem voltada ao risco, o que significa ter sempre à disposição ferramentas de mitigação de riscos.

(crédito: Freepik)

O G7 assinou nesta segunda-feira, 30, um acordo pelo qual concordam em princípios que devem orientar as empresas de tecnologia de seus respectivos países no desenvolvimento de inteligência artificial. O documento assinado é resultado de negociações que acontecem desde a Cúpula de Hiroshima, ocorrida no final de maio deste ano.

Embora o grupo se chame G7, dele fazem parte Alemanha, Canadá, Estados Unidos, França, Itália, Japão, Reino Unido e União Europeia. Os EUA já publicaram hoje decreto em linha com os princípios acordados, como a determinação para que as desenvolvedoras franqueiem acesso do governo a informações sobre a tecnologia criada.

Os princípios estabelecidos para desenvolvedores de IA do G7 serão utilizados como referência para documento semelhante que está sendo elaborado pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico), da qual o Brasil não faz parte, mas pleiteia adesão.

Ao todo, são 11 os princípios propostos pelo G7. Estes não são considerados “exaustivos”. Ou seja, as discussões continuam e podem evoluir para a introdução de mais diretrizes, e mais detalhadas. Por ora, o que ficou estabelecido foi:

  1. As organizações que operam dentro dos países do G7 devem adotar medidas para identificar, avaliar e mitigar riscos que surjam ao longo do ciclo de vida da inteligência artificial desenvolvida;
  2. Impedir o mau uso – as empresas que oferecem a tecnologia de IA no mercado devem monitorar a aplicação de forma indevida e impedir tal ocorrência. Uma das possibilidades é permitir que a IA seja aberta para investigação de vulnerabilidades por terceiros, tal qual antivírus existe para analisar sistemas computacionais;
  3. As desenvolvedoras devem publicar relatórios informando de quais capacidades suas inteligências artificiais são dotadas, quais suas limitações, o quanto dominam sobre seu uso apropriado e desapropriado, garantindo transparência e responsabilização;
  4. Trabalhar pelo compartilhamento responsável de informação e de notificação de incidentes junto a outras organizações que desenvolvam sistemas IA, incluindo a indústria, governo, sociedade civil e academia;
  5.   Desenvolver, implementar e tornar públicas a governança da IA e as políticas de gerenciamento de riscos, fundamentada em uma abordagem sempre orientada ao risco – isso inclui políticas de privacidade e medidas de mitigação;
  6. Investir e implementar controles de segurança, inclusive salvaguardas físicas, cibernéticas e contra ameaças internas ao longo do ciclo de vida da IA;
  7. Desenvolver e liberar conteúdos que permitam atestar a autenticidade e origem da IA, sempre que possível, como uso de marcas d’água ou outros métodos que indiquem o sistema responsável por um conteúdo gerado artificialmente;
  8. Priorizar a pesquisa para mitigar riscos à sociedade e à segurança, e priorizar investimento em ferramentas de mitigação;
  9. Priorizar o desenvolvimento de IA que contribua para resolver os principais desafios atuais da humanidade, como a crise climática, a saúde e a educação;
  10. Desenvolver e, quando apropriado, adotar padrões técnicos internacionais;
  11. Implementar medidas adequadas para inserção e proteção de dados pessoais e de propriedade intelectual.

Além destes pontos de orientação para os desenvolvedores, os países do G7 concordam que o desenvolvimento de IA não pode, jamais, ser feito para seu uso em minar valores democráticos, ser danoso a indivíduos ou comunidades, facilitar o terrorismo, permitir usos criminais ou ameaçar os direitos humanos. Os países também devem promover o desenvolvimento que respeite a diversidade, a justiça, a não discriminação, e tenha como centro o ser humano.

Avatar photo

Rafael Bucco

Artigos: 4234