Regulação de IA: Novo relatório delimita competência de agências em seus setores
O relator do projeto de marco legal para a Inteligência Artificial (IA), senador Eduardo Gomes (PL-TO) apresentou na noite desta sexta-feira, 7, um novo substitutivo que será analisado como parecer final da comissão temporária responsável pelo tema no Senado Federal, no âmbito do Projeto de Lei 2338/2023, formulado por juristas. Entre os ajustes feitos na proposta está a delimitação da competência das agências reguladoras em suas respectivas áreas de atuação.
Propõe-se a criação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), como já previsto na versão anterior, com uma “autoridade competente” central, a ser designada pelo Poder Executivo Federal, para “garantir a fiscalização, a regulação e o bom funcionamento de setor ou atividade econômica, conforme sua competência legal”.
O novo texto detalha o papel que as agências reguladoras terão em conjunto com tal autoridade competente, se o sistema for relativo ao mercado regulado por elas, na forma em que será realizada a “avaliação de impacto algorítmico”, etapa obrigatória aos desenvolvedores ou fornecedores sempre que o sistema for considerado de alto risco (veja lista mais abaixo).
Trata-se da “análise do impacto sobre os direitos fundamentais”, em que são apresentadas “medidas preventivas, mitigadoras e de reversão dos impactos negativos, bem como medidas potencializadoras dos impactos positivos de um sistema de IA”. Caberá às agências e órgãos reguladores setoriais estabelecer os critérios a serem adotados pela autoridade competente na definição sobre quem deve executar a análise de impacto: o agente de IA (desenvolvedor ou fornecedor) ou uma equipe terceira, que funcionaria como uma espécie de auditoria externa.
Na versão anterior, mencionava-se “colaboração” entre a agência e a autoridade competente “considerando eventual regulamentação setorial existente”.
Ao pontuar mudanças no parecer do PL de IA, Gomes entende que “o papel dos reguladores setoriais foi fortalecido, explicitando sua competência no que tange a sistemas de inteligência artificial inseridos em sua esfera de atuação” e que “além disso, foi proposta a criação de um SIA, exatamente com o objetivo de valorizar e reforçar as competências das autoridades setoriais e de harmonizá-las com aquelas da autoridade competente central”.
Sandbox
O substitutivo também traz ajustes para o ambiente regulatório experimental (sandbox regulatório), tornando a promoção e autorização do mesmo um “dever” ao invés de uma possibilidade, se o interessado estiver dentro dos requisitos dispostos em regulamento (veja na tabela comparativa abaixo).
Na versão anterior, o sandbox era definido como “o processo estabelecido pela autoridade competente e demais autoridades regulatórias com vistas a facilitar o ciclo de vida seguro, ágil e inovador de sistemas IA”.
No novo texto, o conceito é detalhado para “conjunto de condições especiais estabelecidas para desenvolver, treinar, validar e testar, por tempo limitado, um sistema de IA inovador, bem como modelos de negócio e políticas públicas inovadoras, técnicas e tecnologias experimentais que envolvam IA, mediante o cumprimento de critérios e de limites previamente estabelecidos e por meio de procedimento facilitado”.
Alto risco
Ainda conforme o relatório, a listagem de sistemas de alto risco (submetidos a um monitoramento mais rígido) foi revisada, "tendo sido substancialmente reduzidos os sistemas de identificação biométrica considerados de risco elevado".
Estão entre os sistemas considerados de alto risco:
- aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade, quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais;
- educação e formação profissional, para a determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
- recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria;
- avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade;
- sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica; e
- produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados;
Risco excessivo
São considerados de risco excessivo e portanto, proibidos de implementação e uso os seguintes sistemas de inteligência artificial:
- que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir o comportamento da pessoa natural ou de grupos de maneira que cause ou seja provável que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
- pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional;
- que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
- que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
- sistemas de armas autônomas (SAA);
- sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público, (com exceção de algumas hipóteses para investigação de crimes
Veja as listas completas de aplicações e riscos dos sistemas de IA acessando a íntegra do relatório, neste link.