Polido: As novas regras de IA na Europa e os impactos no Brasil
Por Fabricio B. Pasquot Polido*
Em março de 2018 a Comissão Europeia estabeleceu um grupo de peritos em Inteligência Artificial para elaborar proposta de diretrizes sobre ética em IA. Em abril de 2019, o documento “Diretrizes de ética para IA confiável” foi publicado. Na sequência, em fevereiro de 2020, a Comissão publicou um primeiro esboço de regulamento da União Europeia, também chamado de “Livro Branco sobre IA”. O documento convidou todas as partes interessadas a expressar seus comentários sobre a nova proposta normativa e ao todo recebeu mais de mil contribuições de empresas, organizações empresariais, indivíduos, instituições acadêmicas e autoridades públicas. Com base nessa consulta, a proposta de regulamentação normativa para IA foi apresentada pela Comissão Europeia em 14 de abril de 2021. Desde então, ela passou por um processo legislativo detalhado de revisões e contribuições técnicas para adequação do texto que estava sobre a mesa legislativa na União Europeia.
Em junho de 2023, o Parlamento Europeu aprovou, por maioria, o texto do Regulamento proposto. Após a primeira rodada de aprovação pelo Parlamento Europeu, a proposta legislativa foi encaminhada para o Conselho da União Europeia, composto por representantes dos Estados-Membros da UE, que deveria aprovar a legislação por maioria qualificada. Paralelamente, em agosto de 2023, o Conselho de Ministros da Espanha aprovou o Estatuto da Agência Espanhola de Supervisão de Inteligência Artificial (“AESIA”), estabelecendo o primeiro órgão regulador de IA entre os Estados Membros da UE, de modo a assegurar a aplicação das normas do futuro Regulamento Europeu de IA no país.
Em 9 de dezembro de 2023, após três dias de extensas negociações, os membros do Conselho e do Parlamento Europeu finalmente chegaram ao acordo de compromisso sobre a proposta de regras harmonizadas sobre IA para a União Europeia, aprovando o texto do Regulamento por unanimidade. Com 523 votos a favor, 46 contra e 49 abstenções, o texto final foi aprovado pelo Parlamento europeu no 13 de março de 2024, em Strasbourg, chegando ao término de uma importante trajetória legislativa na cartografia global das estratégias nacionais, leis e regulamentos de IA. Na próxima fase o texto do Regulamento passará por correções e ajustes nas traduções para idiomas oficiais da UE.
O que o novo Regulamento Europeu de IA busca disciplinar?
O novo Regulamento Europeu de Inteligência Artificial – também conhecido por também conhecido “AI Act” – estabelece um abrangente quadro normativo para a inteligência artificial na União Europeia. Seu objetivo primordial é o de assegurar o desenvolvimento e uso ético, seguro e transparente da IA, de modo a impulsionar a inovação e a competitividade no cenário digital europeu. O Regulamento busca salvaguardar os direitos fundamentais das pessoas, incluindo privacidade, não discriminação e segurança, ao mesmo tempo em que institui diretrizes para diferentes tipos de sistemas de IA. O mote legislativo para o Regulamento também esteve na ideia de que a nova normativa europeia terá condições de criar um ambiente confiável tanto para consumidores quanto para empresas, oferecendo diretrizes sobre conformidade e responsabilidade para desenvolvedores, usuários e provedores de serviços de IA.
O Regulamento entrará em vigor após 20 dias da data de sua publicação, e a partir dela as obrigações produzirão efeitos plenos de Modo diferido no tempo, em fases: as proibições serão efetivadas após 6 meses e o Sistema de Inteligência Artificial de Propósito Geral (GPAI) em 12 meses. O GPAI, que abrange tecnologias como IA Generativa, refere-se a sistemas capazes de desempenhar uma variedade de tarefas. As regras gerais do Regulamento, por sua vez, entrarão em vigor 24 meses após a publicação, enquanto regras sobre sistemas de alto risco vigorarão em 36 meses após a entrada em vigor do Regulamento.
O novo Regulamento define quatro níveis de risco para sistemas de IA, a partir da função e finalidade do sistema: risco inaceitável, alto risco, risco limitado e mínimo ou nenhum risco. Sistemas de IA de risco inaceitável, como pontuações sociais governamentais (a exemplo do que ocorre na China), são aqueles considerados ameaça clara à segurança, meios de subsistência e direitos das pessoas, por isso são proibidos. Sistemas de alto risco são aqueles que têm um potencial impacto significativo na segurança e nos direitos fundamentais das pessoas, por isso estão sujeitos a obrigações rigorosas, como avaliação e mitigação de riscos adequadas, qualidade dos conjuntos de dados, documentação detalhada e supervisão humana adequada. Sistemas de risco limitado referem-se aos riscos associados à falta de transparência no uso da IA. Por esse motivo, sistemas desse tipo têm obrigações específicas de transparência de informações, a serem observadas por desenvolvedores e usuários. Por fim, o Regulamento permite o uso livre de IA de risco mínimo ou inexistente, como jogos de vídeo habilitados para IA ou filtros de spam, abrangendo a maioria dos sistemas de IA já em utilização no domínio da UE.
Cada Estado-Membro deve aplicar as regras do Regulamento, com implementação técnica que pode variar de acordo com as práticas legais de cada um deles, como por exemplo, definir a estrutura e operação de suas autoridades nacionais ou órgãos reguladores de IA. Os Estados-Membros são obrigados a alcançar os objetivos estabelecidos pela normativa europeia, de modo a zelar pela aplicação das regras do Regulamento, que têm primazia sobre os sistemas jurídicos nacionais.
Quais são as potenciais implicações para Brasil?
Sem dúvidas, a aprovação do Regulamento Europeu de IA influenciará o caminhar do debate regulatório brasileiro, tendo em vista a tramitação de projetos de lei sobre o tema. Apesar de existirem outras leis, regulamentos e diretrizes precedentes no globo dispondo sobre desenvolvimento e uso de aplicações em inteligência Artificial, como na China, Reino Unido, Estados Unidos e Peru, a entrada em vigor do Regulamento Europeu de IA tende a pressionar agentes econômicos e o governo brasileiro na direção de um marco legal definido, estável e previsível. A pressão que a União Europeia ainda exerce nos países com os quais o bloco mantém relações econômicas – a propósito do ‘Efeito Bruxelas’, como o Brasil, tem sido intensificada em diferentes frentes das relações comerciais transfronteiriças entre empresas na UE e suas parceiras de negócios em território brasileiro.
O Regulamento será aplicável a negócios envolvendo desenvolvimento e uso de aplicações de IA, o que levará empresas e startups brasileiras a adotar níveis de conformidade indiretos, mediante obrigações em contratos comerciais internacionais, acordos de pesquisa e desenvolvimento, compartilhamento de dados pessoais e não-pessoais e transações transfronteiriças prevendo eventuais aplicações de tecnologias baseadas em IA. Dito de outra forma, o Regulamento Europeu de IA trará repercussões práticas nas negociações de contratos internacionais entre partes brasileiras e europeias, como ocorreu e continua a ocorrer com obrigações relacionadas a práticas anticorrupção, privacidade e proteção de dados e direitos de propriedade intelectual. Empresas brasileiras, inclusive, poderão estar sujeitas ao âmbito de aplicação do Regulamento Europeu quando:
(1) colocarem no mercado ou em serviço na União Europeia sistemas de IA; ou
(2) forem fornecedoras ou implantadoras de sistemas de IA cujos resultados são empregados no mercado interno.
Ainda que haja certa resistência cultural por alguns especialistas no Brasil, é importante observar que a tramitação conjunta dos Projetos de Lei na área, como o PL 21/2020 (“fundamentos, princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil”), e o Projeto de Lei nº 2338/2023 (que institui Lei sobre uso de IA no Brasil), não passará imune dos desdobramentos que se seguem à aprovação do Regulamento Europeu. Os trabalhos de uma Comissão de Juristas, estabelecida pelo Senado, foram responsáveis por elaborar um projeto substitutivo para regulamentação da IA no Brasil com base no PL 2.338 (última versão em março de 2022), e ela se baseia duplamente em uma “abordagem baseada em risco” (como na normativa europeia) e “abordagem baseada em direitos” (espelhada em instrumentos internacionais relevantes). Não se sabe se a iniciativa legislativa manter-se-á intocada segundo a proposta que está na mesa do Congresso, entretanto haverá muito ânimo dos parlamentares para prosseguir com as discussões até a aprovação de Marco Legal de IA brasileiro, e que coloque o Brasil definitivamente na corrida regulatória global.
*Fabricio B. Pasquot Polido- Professor Associado da Faculdade de Direito da UFMG. Doutor em Direito Internacional pela USP. Sócio de Inovação e Tecnologia e Solução de Disputas de LO Baptista e Co-Fundador de LO.Tech.