IA: Relator flexibiliza regras para infraestruturas críticas

Voto complementar do senador Eduardo Gomes incorpora mais 20 emendas integralmente e outras 13 parcialmente. Comissão espera votar relatório na próxima semana.
IA: Relator flexibiliza regras para infraestruturas críticas e autorregulação | Foto: Saulo Cruz/Agência Senado
Senador Eduardo Gomes (PL-TO) acata emenda sobre infraestruturas críticas no PL de IA | Foto: Saulo Cruz/Agência Senado

O relator do marco legal de Inteligência Artificial (IA) no Senado Federal, Eduardo Gomes (PL-TO), apresentou nesta quinta-feira, 4, um voto complementar à proposta apresentada em junho como substitutivo ao projeto de lei que prevê as diretrizes para a regulação da tecnologia no Brasil (PL 2338/2023). Entre as mudanças acolhidas está a inclusão de mecanismos de autorregulação e a revisão dos critérios de risco dos sistemas, entre eles, aqueles aplicados na gestão de infraestruturas críticas (saiba mais baixo). 

Ao todo, Gomes acatou 33 emendas, sendo 20 integralmente e 13 parcialmente (veja detalhes abaixo). Na sessão desta manhã, o senador apresentou apenas a minuta do voto. 

Autorregulação

A proposta em discussão já autorizava expressamente os agentes de inteligência artificial a se associarem voluntariamente sob a forma de pessoa jurídica de direito privado, sem fins lucrativos, para “promover a autorregulação com o objetivo de incentivar e assegurar melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de inteligência artificial”.

Também já previa que a autorregulação poderia incluir, entre outros pontos, o “compartilhamento de experiências” e “critérios técnicos dos sistemas de IA aplicada, inclusive de padronização, prudenciais e de atuação concertada dos entes associados, desde que não impeçam o desenvolvimento tecnológico” e em conformidade com a lei e as normas vinculantes do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). 

A emenda acatada inclui a “adoção de padrões, melhores práticas, modelos e certificações reconhecidas internacionalmente” entre as funções da autorregulação. 

A justificativa da emenda, assinada pelos senadores Izalci Lucas (PL-DF) e Vanderlan Cardoso (PSD-GO) explica que medida visa “garantir que haja uma interoperabilidade em nível global, e os agentes de IA tenham visibilidade e possam adotar de maneira voluntária os melhores mecanismos adotados pela indústria”. 

Risco e infraestruturas críticas

O relator sugere a aprovação de algumas emendas que buscam alterar critérios para identificação de sistemas de “alto risco”, categoria que exige maior rigor regulatório. 

A lista já em discussão prevê entre os sistemas de alto risco os “dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas”, ” quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais”. 

Emenda acatada pelo relator delimita este conceito, para que a classificação de alto risco se dê apenas quando o impacto à integridade física  ou a interrupção dos serviços essenciais se der “de forma ilícita ou abusiva“.

A ideia se alinha à reivindicação do setor de telecom. A justificativa à proposta de ajuste cita que “a regulação da Inteligência Artificial (IA) deve ser focada nas aplicações da tecnologia, e não na tecnologia como definição ampla, levando em consideração a probabilidade e a gravidade dos impactos adversos”.

Reclassificação de risco

O projeto atribui ao SIA – sistema nacional composto pelos órgãos setoriais e coordenado pela Autoridade Nacional de Proteção de Dados (ANPD)  – a regulamentação da “classificação da lista dos sistemas de inteligência artificial de alto risco”, bem como identificação de “novas hipóteses, levando em consideração a probabilidade e a gravidade dos impactos adversos sobre pessoa ou grupos afetados”.

Tal identificação é baseada em alguns critérios específicos, entre eles, o “histórico danoso, de ordem material ou moral” daquele sistema. A emenda apresentada pelo senador Laércio Oliveira (PP-SE) e acatada por Gomes acrescenta neste ponto que sejam considerados apenas os danos “significativos”, sem detalhar o que pode ser enquadrado neste conceito. 

Além disso, a mudança sugerida também exige que autoridades reguladoras avisem previamente os agentes de inteligência artificial (desenvolvedores, distribuidores e aplicadores que atuem na cadeia de valor e na governança interna dos sistemas de IA) sobre eventual reclassificação dos sistemas de inteligência artificial de alto risco, ou seja, quando um sistema que estava fora da lista que exige mais obrigações estiver na mira para entrar no radar de maior rigor da regulação.

Votação

A Comissão Temporária sobre Inteligência Artificial (CTIA) do Senado prevê a conclusão do relatório final e votação do projeto na próxima semana, com a intenção de viabilizar a análise no plenário ainda neste semestre.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 964