Inteligência Artificial: Novo relatório amplia exceções ao PL

Presidente da comissão especial, Carlos Viana (Podemos-MG), pretende tentar votar o projeto em dezembro, para que seja possível deliberação em plenário ainda este ano.
Inteligência Artificial: Novo relatório amplia exceções ao PL
Foto: Roque de Sá/Agência Senado

A Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado Federal recebeu nesta quinta-feira, 28, a complementação de voto do relator, Eduardo Gomes (PL-TO) ao texto da proposta de marco legal para a tecnologia no Brasil (PL 2338/2023). Por um lado, o novo texto amplia o escopo de exceções, por outro, mantém o reforço à proteção aos direitos autorais, um dos pontos críticos apontados pelas empresas desenvolvedoras. 

Entre os pontos de flexibilização, houve a exclusão da “implementação em larga escala” do sistema de IA como um dos critérios na classificação de “alto risco”, que indica maiores compromissos regulatórios. Segundo o relator, a medida se deu “haja vista que tais sistemas valem-se, em sua maioria, de grande volumes de dados”. Esta era uma das demandas das prestadoras de serviço que aplicam a tecnologia, incluindo o setor de telecom.

No que diz respeito ao escopo de aplicação da lei, o projeto deixa de fora as “atividades de testagem”, segundo o relator, “de modo a reforçar que o objeto primariamente regulado é o uso e aplicação dos sistemas de IA”. A nova versão, no entanto, mantém a observação de atendimento à legislação aplicável aos testes, em especial o Código de Defesa do Consumidor, a Lei Geral de Proteção de Dados Pessoais, a Política Nacional do Meio Ambiente e a Lei de Direitos Autorais.

Também passa a ficar de fora das regras da lei qualquer sistema de IA “usado por pessoa natural para fim exclusivamente particular e não econômico”, enquanto que a versão anterior fazia ressalva aos casos de uso de sistemas submetidos a medidas de governança por se tratar de propósito geral e de IA generativa. 

Regime simplificado

O relatório apresentado nesta manhã também amplia as hipóteses de regime simplificado de regulação, a serem detalhados posteriormente, pelo Sistema de Governança e Regulação sobre Inteligência Artificial  – SIA (veja detalhes da estrutura mais abaixo). 

A versão anterior, apresentada em julho, já considerava a simplificação para hipóteses de “fomento nacional” e “padrões e formatos abertos e livres”, com exceção daqueles considerados de alto risco ou submetidos a medidas de Governança para Sistemas de IA de Propósito Geral e Generativas. 

Agora, entram neste rol, expressamente, os casos de: 

  • “incentivo à inovação e à pesquisa científica e tecnológica no ambiente produtivo, com vistas à capacitação tecnológica, ao alcance da autonomia tecnológica e ao desenvolvimento do sistema produtivo nacional e regional do país”;
  •  “projetos de interesse público, e aos que atendam as prioridades das políticas industrial, de ciência tecnologia e inovação e à solução dos problemas brasileiros”; e 
  • “projetos realizados em parceria público privada, ou em parcerias estratégicas, em Instituição Científica, Tecnológica e de Inovação (ICT), Núcleo de Inovação Tecnológica (NIT), fundação de apoio; parques tecnológicos, polos tecnológicos”.

Desinformação

Outro ponto sensível no texto, o conceito de integridade da informação, foi revisto, segundo o relator, “para deixar explícito que é instrumental para a promoção da liberdade de expressão, e não ser instrumentalizado para fins de censura ou violação a outros direitos fundamentais”.

O conceito aparece em alguns pontos na lei, entre os aspectos que devem ser observados pelos fornecedores. Um das obrigações aos desenvolvedores, por exemplo, é que “antes de disponibilizar no mercado para fins comerciais, garantir a adoção de medidas para identificação, análise e mitigação de riscos razoavelmente previsíveis no que tange a direitos fundamentais, o meio ambiente, a integridade da informação, liberdade de expressão e o acesso à informação”.

Encarregado

A versão anterior do projeto de lei definia como “encarregado” a “pessoa ou comitê indicado pelo agente de inteligência artificial [ ou seja, indicado pelos desenvolvedores, distribuidores e aplicadores que atuem na cadeia de valor e na governança interna de sistemas de inteligência artificial] para atuar como canal de comunicação com pessoas e grupos afetados, com a autoridade competente e demais entidades do SIA, bem como para supervisionar o desenvolvimento e uso ético e responsável de sistemas de inteligência artificial e em conformidade com as previsões desta lei”.

O novo texto exclui tal conceito, atendendo a diversas emendas parlamentares, sob a alegação de que tal flexibilização seria necessária para “não enrijecer as estruturas corporativas internas de governança, com preservação da discricionariedade dos agentes regulados na lógica de corregulação”. 

“Uso específico” e “risco sistêmico”

Ao contrário das versões anteriores, o texto incorpora os termos “contexto de uso específico” e “risco sistêmico”, importantes para delimitar os sistemas de IA que serão submetidos a mais compromissos regulatórios.

O contexto de uso é um dos aspectos observados na avaliação dos reguladores para quando o sistema de IA gerar conteúdo sintético, determinando para a exigência de identificador em tais conteúdos para verificação de autenticidade ou características de sua proveniência, modificações ou transmissão. 

Na prática, indica um ponto a ser detalhado na fase de regulamentação da lei. Por enquanto, o termo é definido como “a utilização específica a qual é destinada o sistema ou aplicação de IA, incluindo o sistema a ser utilizado, o contexto e a finalidade específicas e suas condições de utilização”.

O risco sistêmico, por sua vez, foi apontado pelo relator como um “filtro para obrigações específicas e adicionais com relação às IAs de propósito geral”. Na lei, ele ficou definido como “potenciais efeitos adversos negativos decorrentes de um sistema de IA de propósito geral e generativa com impacto significativo sobre direitos fundamentais individuais e sociais”.

Há uma série de compromissos direcionados ao desenvolvedor de sistema de IA com risco sistêmico, entre eles, uma descrição detalhada do modelo de IA, documentação de testes e análises, riscos não mitigáveis, além da publicação de um resumo do conjunto de dados utilizados no treinamento do sistema.

Entre as flexibilizações realizadas no texto, o relator destacou ainda “a supressão do ‘direito à determinação humana’ que passa a ser aplicável apenas a IAs de alto risco”, e a exclusão do “termo ‘efeitos jurídicos relevantes’ como critério para definição de direitos e deveres mais intensos quanto a sistemas de IA de alto risco, de modo a reforçar a lógica de regulação assimétrica baseada em risco e, com isso, agregar maior segurança jurídica”.

O que é o SIA

O Sistema de Governança e Regulação sobre Inteligência Artificial (SIA) é o ecossistema a ser coordenado pela Autoridade Nacional de Proteção de Dados (ANPD) com a finalidade de “promover e garantir a cooperação e a harmonização com as demais autoridades setoriais e entes reguladores, sem vínculo de subordinação hierárquica entre eles, e outros sistemas nacionais para a plena implementação e fiscalização do cumprimento desta Lei em todo o território nacional com segurança jurídica”.

Ou seja, os órgãos reguladores continuarão responsáveis pelos seus respectivos setores, e a ANPD zelará pela atuação harmoniosa entre eles, seguindo as diretrizes previstas na lei. 

O SIA terá papel importante na definição de regimes simplificados e eventuais novas flexibilizações na lei, reclassificações, além da regulamentação de pontos em aberto que surgirem. 

O modelo de regulação proposto é baseado em riscos. Sendo aqueles de “alto risco” submetidos a regras para garantia de defesa de direitos fundamentais. Há ainda a classificação de “risco excessivo”, que são aqueles expressamente proibidos.

A classificação como “alto risco” está no cerne da proposta por carregar compromissos dos agentes de IA tanto com os reguladores quanto com os usuários. De acordo com a proposição legislativa, a pessoa ou grupo afetado por sistema de IA de alto risco tem os seguintes direitos:

  • direito à explicação sobre a decisão, recomendação ou previsão feitas pelo sistema;
  • direito de contestar e de solicitar a revisão de decisões, recomendações ou previsões de sistema de IA; e
  • direito à revisão humana das decisões, levando-se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico.

 

 

Próximos passos

O presidente da comissão especial, Carlos Viana (Podemos-MG), anunciou nesta manhã que pretende tentar votar o projeto em dezembro, para que seja possível deliberação no plenário do Senado Federal ainda este ano.

Acesse aqui a íntegra do novo relatório.

 

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura de telecom nos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 1147