IA: Classificação de risco está entre principais impasses na tramitação

Empresas temem impacto no desenvolvimento de sistemas que demandem maior rigor regulatório. Outra frente quer maior responsabilização de desenvolvedores.
Proposta de regulação de IA em discussão no senado lista sistemas de alto risco | Crédito: Leonardo Sá/Agência Senado
Proposta de regulação de IA em discussão no senado lista sistemas de alto risco | Crédito: Leonardo Sá/Agência Senado

O conclusão do relatório da comissão responsável por analisar proposta de marco legal para a inteligência artificial tem como principais demandas de ajustes dos setores envolvidos na discussão a lista dos sistemas considerados de “alto risco”, aos quais são destinados condicionantes para o desenvolvimento e uso das aplicações, assim como estão previstas salvaguardas aos usuários e punições em caso de descumprimento. O adiamento da votação envolve, entre outros pontos, a tentativa de flexibilizações. 

Parlamentares ouvidos pelo Tele.Síntese afirmam que têm sido procurados por representantes de empresas que alegam temer o impacto no desenvolvimento (ou continuidade) de sistemas que demandam maior rigor regulatório. Uma outra frente pede maior distinção entre as responsabilidade dos desenvolvedores e daqueles que vão aplicar as ferramentas de IA (saiba mais abaixo).

A regulação de IA está sendo discutida principalmente a partir do texto formulado por comissão de juristas no Senado Federal, transformada em projeto de lei assinado pelo presidente da Casa, Rodrigo Pacheco (PSD-MG), o PL 2.338/2023. O relator, Eduardo Gomes (PL-TO) trabalha em substitutivo que já adotou algumas flexibilizações, mas que ainda está aberto para mudanças.

Proposta em discussão

Conforme o substitutivo proposto, a pessoa ou grupo afetado por sistema de IA que produza efeitos jurídicos relevantes ou de alto risco tem direito à:

  • explicação sobre a decisão, recomendação ou previsão feitas pelo sistema, incluindo os dados processados e a sua fonte, os critérios para a tomada de decisão e, quando apropriado, a sua ponderação, aplicados à situação da pessoa ou grupo afetado”;
  • Contestação e solicitação da revisão de decisões, recomendações ou previsões de sistema de inteligência artificial; e
  • supervisão ou revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico. 

Estão entre os sistemas de alto risco, “aqueles desenvolvidos e utilizados para as seguintes finalidades e contextos”:

  • aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade, quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais;
  • educação, formação profissional para a determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
  • recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas afetadas por tais aplicações de inteligência artificial nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria;
  • avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade;
  • avaliação e classificação de chamadas, ou determinação de prioridades para serviços públicos essenciais, tais como de bombeiros e assistência médica;
  • veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas;
  • sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica; e
  • produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados.

Acesse a lista completa no substitutivo

Debates

O objetivo da comissão é concluir ao menos a votação do relatório até 17 de julho, prazo final do funcionamento do colegiado, que coincide também com a véspera do recesso parlamentar. As audiências públicas previstas abordarão os seguintes temas:

  • Categorização e avaliação de riscos em sistemas de ia;
  • Governança dos sistemas de ia;
  • Autorregulação e boas práticas;
  • Supervisão e fiscalização (sistema nacional de regulação e governança de ia; e
  • Fomento à inovação sustentável e atuação do poder público.

Por mais tempo

Em nota divulgada nesta terça-feira, 18, um grupo de associações representantes da academia, indústria e sociedade civil pediu mais tempo para o debate do PL de IA, sugerindo ajustes. Entre eles, uma maior distinção para eventual responsabilização de desenvolvedores e os “aplicadores” do sistema.

A carta aberta é assinada pelas seguintes entidades: Associação Brasileira de Empresas de Software (ABES), Associação Brasileira de Inteligência Artificial (Abria), Associação Brasileira das Empresas de Sistemas Eletrônicos de Segurança (Abese), Associação Brasileira dos Agentes Digitais (Abradi), Conselho Digital do Brasil (CD), Endeavor, FecomercioSP e Movimento Inovação Digital (MID).

Também assinam as empresas Amadeus AI, B-Seed, Black Belt, Cognyflow IA, Mantis-AI, Nama AI, Open Cybersecurity, Scicrop, Sevilha BPO e TRAAD Wiser Investor.

No comunicado, o grupo avalia que há “imposições regulatórias excessivamente prescritivas e onerosas, que limitam a autonomia dos atores de IA para definirem o nível adequado de sua governança, como a necessidade de supervisão humana, rol extensivo de avaliações preliminares e de impacto, além de diversas obrigações de publicização de informações que desafiam o avanço tecnológico, a segurança dos sistemas e o segredo de negócio”.

Aa entidades pedem ainda regras menos abrangentes, para possibilitar o teste dos sistemas que envolvem IA, levando em conta que o projeto também regulamenta a testagem. Ainda de acordo com a nota, as empresas e associações esperam “dispositivos e instrumentos relevantes que sirvam como mecanismos de fomento da IA no Brasil, de modo a incentivar a inovação e o surgimento de novas empresas de base tecnológica”.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 930