Assessora do Ministério da Gestão sugere flexibilizações no PL de IA
A assessora especial do Ministério da Gestão e da Inovação em Serviços Públicos, Miriam Chaves, sugere mudanças no projeto de lei 2338/2023, que cria o Marco Regulatório da Inteligência Artificial no país. Ao comentar sobre a proposta em seminário promovido pelo Comitê Gestor da Internet no Brasil (CGI.br) nesta quinta-feira, 19, ela manifestou temer uma “hiperregulação”.
Chaves afirma que algumas das exigências previstas no PL “são bem complicadas de fazer, tanto do ponto de vista do governo, quanto do ponto de vista das empresas”, e que “precisa ajustar, senão elas vão tornar as coisas muito impeditivas”.
“[O PL de IA] fala de monitoramento, de coleta de dados de todos os processos. São coisas que não necessariamente vão ser possíveis de fazer. Então a nossa preocupação é um pouco entrar em equilíbrio em relação ao que é possível fazer, da melhor maneira possível, sempre buscando o melhor benefício com a garantia de que não vai atrasar o desenvolvimento como uma hiperregulação que pode nos prejudicar em termos de avanço social e progresso”, complementou Chaves.
A exemplo, um dos pontos questionados pela representante do ministério é a previsão de descrição das fontes das aplicações de IA (saiba mais abaixo). “O PL fala coisas que são fundamentais, como transparência prévia. Mas você tem que saber o que dá para saber. Porque claro que, as redes neurais e esses sistemas, não adianta você pedir quais foram as fontes dessa informação, porque ele vai dizer que são todas as fontes que ele obtém […] mas, minimamente, você tem que saber o que está sendo construído ali naquela aplicação”, afirmou.
Ao longo do debate, a assessora também contou que o governo tenta introduzir mais tecnologias em seus processos e que a IA é inevitável. “O risco é ficar fora do mundo no sentido da nossa capacidade de atuar nesse mundo. Eu tô falando do ponto de vista geral, mas do ponto de vista de governo, também. A gente de fato não pode abrir mão, nem desta nem de outras tecnologias, só que a gente tem que aprender a fazer isso de uma maneira que cumpra os nossos objetivos”, disse Chaves.
PL de IA
O PL 2338/2023 partiu de um anteprojeto construído em comissão de juristas no Senado Federal, formada por 18 integrantes, entre ministros, juízes, juristas e pesquisadores renomados. O colegiado realizou dez reuniões ao longo de 2022 e o texto levou em consideração estudos técnicos acerca da legislação aplicada internacionalmente, audiências públicas e consulta aos setores envolvidos.
A proposta define os princípios dos sistemas de IA e estabelece uma categorização de riscos, com medidas proporcionais a cada nível, definindo também modelos de responsabilização. Entre os direitos da pessoa afetada pelas aplicações, está a possibilidade de ter acesso a explicação sobre a decisão, previsão ou recomendação, com informações a respeito dos critérios e dos procedimentos utilizados, assim como sobre os principais fatores que afetam tal previsão ou decisão específica, de forma gratuita e facilitada, incluindo informações sobre:
- a racionalidade e a lógica do sistema, o significado e as consequências previstas de tal decisão para a pessoa afetada;
- Io grau e o nível de contribuição do sistema de inteligência artificial para a tomada de decisões;
- os dados processados e a sua fonte, os critérios para a tomada de decisão e, quando apropriado, a sua ponderação, aplicados à situação da pessoa afetada;
- os mecanismos por meio dos quais a pessoa pode contestar a
- decisão; e
- a possibilidade de solicitar intervenção humana
A proposta diz também que toda tecnologia de IA precisará passar por testes antes de se tornar comercial, e deverá ter um registro oficial para fins de responsabilização. Uma autoridade reguladora poderá fazer análises algorítmicas para classificar o grau de risco oferecido pelos sistemas.