Novo relatório de IA coloca ANPD como autoridade central; análise é adiada

Apesar do adiamento, colegiado segue prevendo que tema seja votado na comissão permanente antes do recesso parlamentar.

Senador Eduardo Gomes (PL-TO) apresenta novo substitutivo com ANPD como principal autarquia competente  | Foto: Edilson Rodrigues/Agência Senado

O relator do projeto de marco legal da inteligência artificial (IA), Eduardo Gomes (PL-TO), apresentou nesta terça-feira, 18, uma nova versão do substitutivo, que tem como principal base o texto proposto pela comissão de juristas – PL 2338/2023. Entre os ajustes está a definição da Autoridade Nacional de Proteção de Dados (ANPD) como autoridade competente para coordenar o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). 

A atribuição da ANPD não exclui as competências das demais agências reguladoras no mercado em que atuam.  O modelo proposto é de ação integrada (saiba mais abaixo).

A votação do PL, no entanto, foi adiada. A previsão é de novas audiências públicas nas próximas semanas, com a meta de aprovar o relatório no colegiado ainda antes do recesso parlamentar. 

Modelo institucional de regulação

Conforme a proposta em discussão, os sistemas de IA devem ser submetidos a um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) formado pelos seguintes integrantes:

  • A ANPD, como coordenadora;
  • Autoridades setoriais (a serem designadas pelo Poder Executivo em regulameno posterior;
  • um Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), coordenado pela ANPD;
  • um Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA).

O SIA tem o objetivo de “valorizar e reforçar as competências regulatória, sancionatória e normativa das autoridades setoriais em harmonia com as correlatas gerais da autoridade competente que coordena o SIA [neste caso, a ANPD]”.

O CRIA terá como atribuição “a produção de diretrizes” e será “fórum permanente de colaboração, inclusive por meio de acordos de cooperação técnica, com órgãos e entidades da administração pública responsáveis pela regulação de setores específicos da atividade econômica e com a sociedade civil a fim de harmonizar e facilitar o exercício das atribuições da
Autoridade Competente [ANPD]”.

O CECIA, por sua vez, tem o objetivo de “orientar e supervisionar tecnicamente e cientificamente o desenvolvimento e aplicação da IA de forma responsável”, nos termos a serem definidos por regulamento.

Como autoridade competente, a ANPD poderá estabelecer, “no que couber e sempre em cooperação institucional formal com as autoridades setoriais do SIA, diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada um dos agentes de sistema de IA”.

A autarquia também poderá reclassificar os riscos dos sistemas de IA, em colaboração com autoridades setoriais. A classificação é o gatilho que determina eventuais proibições ou dever de comprovar que o uso ou desenvolvimento não afetará os direitos dos usuários.

Emendas

O PL recebeu o total de 67 emendas, sendo 60 delas após a versão do substitutivo apresentada em 7 de junho, o primeiro após o texto preliminar. 

O relatório apresentado nesta terça-feira, 18, dá parecer ao total de 55.

Estão entre as principais emendas acatadas desde a versão anterior, as seguintes:

Reforço de leis e direitos 

  • a proibição de determinados sistemas de IA por considerado risco excessivo alcançará também seu “desenvolvimento” e não apenas implementação e o uso; 
  •  os sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, passam a ser submetidos expressamente à Lei Geral de Proteção de Dados (LGPD); 
  • Ao desenvolver ou adotar sistemas de IA de alto risco, o poder público deve garantir acesso a bancos de dados não necessariamente de forma “integral”, mas nos termos da LGPD; 
  • Inclui entre as diretrizes a serem desenvolvidas pelo Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA), o fomento à formação e a capacitação dos trabalhadores; e
  • inclui diretriz econômica sustentável no desenvolvimento de tecnologias de inteligência artificial.

Participação da sociedade civil  

  • A  participação pública na elaboração da análise de impacto algorítmico (AIA) será uma regra e não “sempre que possível”, como previsto anteriormente; e
  • A comunicação permanente do Conselho de Cooperação Regulatória de Inteligência Artificial (CRIA) não deverá se dar apenas com órgãos e entidades da administração pública, mas também com a sociedade civil, assim como a elaboração dos objetivos e fundamentos do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).

Flexibilizações

  • os “desenvolvedores posteriores”, que utilizem modelos de IA de propósito geral devem cumprir todos os deveres  legais relativos à governança dos sistemas de IA; 
  • Excluiu-se o fornecedor de sistemas de IA da obrigação de elaboração de avaliação de impacto algorítmico, “já que atua como um mero distribuidor”, segundo o relato;
  • A definição de “discriminação abusiva ou ilícita”, passa a ser “qualquer distinção, exclusão, restrição ou preferência, em qualquer área da vida pública ou privada, cujo propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício, em condições de igualdade, de um ou mais direitos ou liberdades previstos no ordenamento jurídico, em razão de características pessoais”, excluindo trecho que complementava com “em razão de características pessoais como origem geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica, idade, deficiência, religião, profissão ou opiniões política”. A redução da definição, de acordo com o relator, foi necessária para “evitar lacunas jurídicas”. 
  • A lista de requisitos previstos a serem comprovados pelo desenvolvedor de um modelo de IA de propósito geral antes de o disponibilizar no mercado ou de o colocar em serviço passa a ser restrito para casos de alto risco; 
  • Os interesses e direitos previstos na lei serão exercidos “preferencialmente” pela autoridade competente perante o órgão administrativo competente. Versão anterior excluía expressamente a referência ao Judiciário com vistas a não inundar tribunais com litígios relacionados a pequenas discussões de conformidade;  e
  • Eventual auditoria externa só será suscetível a sistemas de IAs de alto risco ou produzam efeitos jurídicos relevantes, “havendo, assim, um filtro que limita proporcionalmente tal medida regulatória”, segundo Gomes. Cabe ressaltar que são considerados efeitos jurídicos relevantes as  “consequências jurídicas modificativas, impeditivas ou extintivas negativas que atingem direitos e liberdades fundamentais”;

Sandbox

  • atribui ao SIA a prerrogativa de estabelecer ambientes regulatórios experimentais sobre a conformação de sistemas de IAs e direitos autorais e novos contornos para o seu funcionamento, como “definir melhor o alcance da responsabilidades atribuídas aos agentes de inteligência artificial na utilização de conteúdo protegido por direitos autorais e conexos no desenvolvimento de sistemas de IA apenas ao desenvolvedor”, de acordo com a síntese do relator.

Responsabilidade

  • Exclui-se das exceções em que não seria obrigatória a ação de cooperação entre agentes privados de IA e desenvolvedores “a viabilidade econômico-operacional da adoção de mecanismos tecnológicos que garantam de forma suficiente e segura a mitigação de riscos”. O relator entende que a medida é para “evitar uma redação dúbia a atrair como regra o regime de responsabilidade civil objetiva”. 

Acesse a íntegra do relatório neste link 

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura de telecom nos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 1134