Regulação de IA: Diferentes setores sugerem ajustes em projeto

Sessão de debate reúne críticas de representantes do governo, de empresas e especialistas. Relator reconhece que texto pode ser aprimorado, mas defende que tramitação não fique paralisada em decorrência de eventuais mudanças.
Regulação de IA: Diferentes setores sugerem ajustes em projeto | Foto: Edilson Rodrigues/Agência Senado
Parlamentares debatem ajustes no PL de regulação de inteligência artificial com especialistas e representantes de diversos setores no Plenário do Senado | Foto: Edilson Rodrigues/Agência Senado

O Senado Federal realizou em Plenário nesta terça-feira, 11, uma sessão temática sobre regulação da Inteligência Artificial (IA), primeiro debate desde a divulgação do novo substitutivo à proposta de marco legal, protocolado na última semana no âmbito do Projeto de Lei (PL) 2338/2023. As manifestações de diferentes setores – público, privado, jurídico e acadêmico – indicam o reconhecimento de avanços em alguns pontos do texto em relação à versão anterior; contudo, ainda com espaço para ajustes.

Entre os tópicos que demandam aprimoramentos, na visão dos participantes, está uma maior atenção aos impactos da IA na manipulação de imagens, na proteção das crianças e adolescentes, além da previsão de mecanismos de incentivo para desenvolvedores brasileiros.

O relator do PL, senador Eduardo Gomes (PL-TO) sinalizou durante a sessão que considera a possibilidade de melhorias, mas também defende que isso não atrapalhe o andamento do projeto.

“Eu concordo que alguns ajustes precisam ser feitos. O que a gente não pode fazer, e não precisa ser feito, é parar tudo porque tem que fazer ajustes. Temos que tocar o processo, votar, fazer a sessão temática, votar na Comissão [temporária] com melhoramento, votar no Plenário com melhoramento, mandar para a Câmara com melhoramento, até um dia – e isso, se a previsão for bem otimista, deve ser no final deste ano – em que a lei seja votada na sua complexidade”, disse Gomes.

Os ajustes

Deepfakes

João Brant, secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom) da Presidência da República, sugeriu maior atenção para a questão dos deepfakes e conteúdos sintéticos.

“Parece-nos que o projeto acaba sendo tímido ao não tratar diretamente desse tema, dos deepfakes. Acho que a dimensão do reconhecimento do risco de isso afetar pessoas deveria estar considerada de uma forma direta no texto, para que a gente não tenha esse impacto negativo da tecnologia”, opinou.

Alto risco e crédito

Para Brant, outro ponto que precisa ser melhor debatido é a dimensão dos sistemas considerados como de “alto risco”, que serão submetidos a uma avaliação das autoridades quanto ao impacto nos direitos fundamentais. O substitutivo ao projeto reduziu a lista de aplicações com esta gravidade, principalmente relacionadas à identificação biométrica.

“A nossa preocupação é sempre entender qual é a parte mais fraca da história. E a parte mais fraca é o cidadão no exercício dos seus direitos, nas suas condições de crédito, nas suas dimensões de segurança, de direitos civis no sentido de proteção em relação à segurança pública. Acho que o relator buscou e conseguiu resultados bastante equilibrados, mas certamente isso pode passar por alguns elementos de discussão ainda no Senado”, afirmou Brant.

Por outro lado, especificamente sobre sistemas que podem afetar o acesso a crédito, o representante da Fazenda, Marcos Barbosa, secretário de Reformas Econômicas, entende que o relator “acertou muito ao não incluir a análise de crédito nas atividades de alto risco”.

“Eu sei que existe uma discussão internacional gigantesca sobre esse assunto. A análise de crédito foi um dos primeiros temas que despertou a consciência da comunidade científica para os riscos de discriminação na inteligência artificial, mas eu acho que a gente pode proceder com um pouco mais de calma aqui no Brasil”, disse o secretário.

Barbosa contextualiza que diferente dos mercados desenvolvidos nos Estados Unidos e na Europa, o debate sobre o tema da análise de crédito no Brasil deve levar em conta as altas taxas de juros praticadas no país e o baixo score de crédito de grande parte da população.

“Na Europa, os grandes bancos estão lutando para sobreviver, devido à competição. Eles têm taxas de retorno sobre o capital investido muito baixas. Aqui no Brasil a gente enfrenta o contrário, existe uma enorme concentração bancária ainda em alguns poucos bancos, e a gente precisa muito de que novos atores entrem nesse mercado, e eles não têm o mesmo acesso à informação e aos dados que os bancos estabelecidos têm. A única chance que eles [novos entrantes] têm de competir é usando algoritmos e mecanismos de inteligência artificial”, disse Barbosa.

Apesar disso, o secretário recomenda aprimoramentos contra a discriminação no uso da IA para análise de crédito, mesmo que a aplicação não seja considerada alto risco. “Os algoritmos tendem, pelas suas características, a discriminar por gênero e por raça. Acho que a gente podia, de repente, ajustar o projeto nesse sentido”, disse.

Desenvolvedores

Para Marcelo Almeida, diretor de Relações Governamentais da Associação Brasileira das Empresas de Software (Abes), é preciso olhar para o desenvolvimento do setor.

“No PL, 95% dos artigos tratam de direitos, deveres e obrigações e só 5% tratam de inovações e desenvolvimento. A criação de direitos não necessariamente criam empregos e fomentam o empreendedorismo […] Defendemos de fato um projeto de lei que tenha uma linha mais principiológica do que dirigista em deveres, direitos e obrigações”, disse.

Também sob a ótica do mercado, Almeida entende que “a contemplação do sandbox não é suficiente”. “Precisamos, além dos espaços regulatórios que o sandbox oferece, de também termos mecanismos de inovação para o desenvolvimento de uma inteligência artificial que eu diria que é transnacional; ela não obedece a fronteiras, e é a razão pela qual precisamos criar no Brasil um espaço de produção”, defendeu.

Rony Vainzof, advogado especialista em Proteção de Dados, Consultor da Fecomércio, em São Paulo, sugeriu, entre outros pontos, a exclusão de trecho do substitutivo que estabelece à pessoa ou grupo afetado pela tecnologia o “direito à determinação e à participação humana em decisões de sistemas de inteligência artificial, levando-se em conta o contexto, o nível de risco do sistema e o estado da arte do desenvolvimento tecnológico”.

“Isso, automaticamente, quebra a lógica de abordagem baseada em risco e torna quase impraticáveis sistemas de IA no Brasil, pois a grande maioria desses sistemas não apresenta riscos elevados e estaria sujeita à determinação e à participação humana sob pena de responsabilização por direito não cumprido e possibilidade de judicialização em massa. E é por isso que nós sugerimos a supressão desse artigo”, alegou Vainzof.

Avanços

Em meio às sugestões de ajustes, os participantes do debate também reconheceram avanços no texto. Representantes do governo e das empresas aprovam o fortalecimento das agências e órgãos reguladores em suas áreas de atuação.

“Entre alguns avanços importantes do último período, eu queria destaca a questão do fortalecimento de um órgão que tenha o papel de um órgão central nesse sistema de regulação, mas que ele respeite os órgãos setoriais e que fortaleça o papel dos órgãos setoriais já existentes nas agências reguladoras nesse processo. Acho que o texto sai de forma muito equilibrada, combinando essas diferentes dinâmicas e fazendo com que os setores respondam diretamente naquilo que é específico, inclusive nas dimensões de alto risco, aos seus órgãos setoriais”, disse João Brant, da Secom.

Estela Aranha, advogada e membro do Conselho Consultivo de Alto Nível da ONU para Inteligência Artificial, chamou atenção em sua exposição para equívocos no entendimento de que a regulação e o desenvolvimento são opostos.

“Uma regulação inteligente, ajustada ao risco e que protege direitos traz, primeiro, confiança numa nova tecnologia, confiança para o mercado, garantia de investimento – esse produto que vai ser entregue e disponibilizado no mercado segue algumas normas, e essas normas, obviamente, trazem um produto confiável -, e também para os cidadãos que vão ser afetados ou vão usar esse tipo de tecnologia”, disse Aranha, ex secretária de Direitos Digitais do Ministério da Justiça e Segurança Pública.

Para a especialista, o PL ainda pode ser aprimorado para evitar discriminações, mas também já traz contribuições importantes, pois “traz um refinado equilíbrio entre a segurança jurídica e a garantia de direitos, e um modelo bem moderno de regulação, que é granular, é ágil para acompanhar o desenvolvimento tecnológico e não se torna um obstáculo”.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 922