Para CDR, PL de juristas não enfrenta todos os riscos da IA generativa

A associação lista desafios de proteção de dados, políticas de sustentabilidade ambiental e direitos humanos. Nota técnica também propõe o banimento de tecnologias de reconhecimento facial.
Para associação, proposta de lei precisa de ajustes para cobrir impactos da IA Generativa
Para associação, proposta de lei precisa de ajustes para cobrir impactos da IA Generativa | Foto: Freepik

A Coalizão Direitos na Rede (CDR), por meio de nota técnica, recomenda acréscimos na proposta de regulação o uso da Inteligência Artificial (IA) no Brasil. Para a associação, o texto elaborado pela comissão de juristas no Senado Federal, Projeto de Lei 2338/2023,  deixa de fora alguns riscos já identificados na difusão das ferramentas de IA generativa. 

Entre as mudanças propostas está o banimento de tecnologias de reconhecimento facial, ampliação de direitos de transparência e definição de atores envolvidos no desenvolvimento dos sistemas (saiba mais abaixo). 

Embora a proposta de lei dos juristas trate questões que envolvem a inteligência artificial como um todo, a CDR entende que o marco legal deve prever “quais regras especiais” devem incidir sobre a IA generativa, “bem como as potencialidades e as dificuldades das previsões da responsabilidade civil” relacionadas a ela. 

A entidade ressalta que sistemas como o ChatGPT são desenvolvidos com base no tratamento de quantidades massivas de dados, que podem ser pessoais ou não, e serão aplicados para o treinamento dessas aplicações. Entre os impactos já identificados a partir dessa tecnologia, que “não podem deixar de ser endereçados por uma regulação efetiva de IA como a que se pretende ser o PL nº 2338/2023”, a CDR destaca:

  • imensa capacidade de esses sistemas serem usados em campanhas de desinformação; 
  • violações de proteção de dados pessoais; 
  • violações de direitos de propriedade intelectual;
  • uso abusivo do conhecimento de povos tradicionais; 
  • geração de conteúdo racista e sexista; 
  • massivo gasto energético e consumo de recursos naturais como minério e água para treinamento dessas tecnologias e para a construção e manutenção do equipamento em que seu desenvolvimento se dá; 
  • capacidade de facilitar a codificação de ferramentas que facilitam ataques cibernéticos;
  • falhas de cibersegurança;
  • Capacidade de aprofundar o epistemicídio do conhecimento produzido por populações não brancas, que estão fora da Minoria Global (também chamada de Norte Global), já que os discursos produzidos por esses sistemas se baseiam em dados que são extraídos principalmente dessa região, não representativos, portanto, das visões de mundo de outros povos; e
  • exploração de trabalhadores pessimamente remunerados em países do Mundo Majoritário para fins de moderação de conteúdo nesses sistema.

As sugestões da associação incluem conceder a reguladores e centros de pesquisa, o acesso às bases de dados de treinamento utilizadas por esses sistemas e prever na lei o provimento de informações sobre impactos ambientais.

A CDR também chama atenção para denúncias de que grandes corporações de tecnologia têm empregado trabalhadores da América Latina, incluindo do Brasil, para realização de tarefas de catalogação de dados e moderação de conteúdo mediante remuneração e condições de trabalho degradantes. Para isso, recomenda que a regulamentação brasileira exija relatórios que detalhem a quantidade de empregados, quanto ganham e o que fazem. 

Reconhecimento facial 

A associação de especialistas pede que o Congresso Nacional insira na lei “o banimento de tecnologias de reconhecimento facial, policiamento preditivo, armas autônomas e de sistemas para reconhecimento de emoções”, como medida “fundamental para impedir um aprofundamento ainda maior do racismo no Brasil, especialmente no âmbito do sistema penal, bem como violações excessivas de privacidade”.

Outro ponto de preocupação é quanto à definição do “ciclo de vida” do sistema de IA que estará protegido pela lei. O texto do PL prevê que um dos princípios do desenvolvimento, implementação e uso de sistemas de inteligência artificial é “a rastreabilidade das decisões durante o ciclo de vida de sistemas de inteligência artificial como meio de prestação de contas e atribuição de responsabilidades a uma pessoa natural ou jurídica”, mas não define o termo.

Para a CDR, o ciclo de vida deve ser descrito como “a série de fases que engloba desde a concepção, planejamento, desenvolvimento, treinamento, testagem, fornecimento, aplicação e eventuais modificações e adaptações de um sistema de inteligência artificial até a descontinuação de sua aplicação ou o descarte”.

Ainda sobre definições, a entidade discorda da parte do texto que diferencia alguns dos atores envolvidos no uso da solução de IA como “fornecedor” e  “operador”. Para a Coalizão, seriam mais adequadas as definições de “desenvolvedor”, “fornecedor” e “aplicador”. Isto porque “há casos em que essas figuras se confundem e se sobrepõem, podendo as entidades que desenvolvem, fornecem e aplicam sistemas serem as mesmas” e, “nesses casos, a responsabilidade seria aferida tomando como base essa concentração de funções”.

Por fim, os especialistas pedem os seguintes aprimoramentos de direitos:

  • a ampliação de direitos de transparência e obtenção de informações – incluindo a inclusão de regras para provimento de informação sobre impactos ambientais e 
  • a ampliação dos poderes da autoridade competente – que deve ter natureza autárquica – para incluir a prerrogativa de conduzir auditorias e de credenciar centros de pesquisa e entidades da sociedade civil para participarem da supervisão desses sistemas.

Veja a íntegra da nota técnica neste link.

Avatar photo

Da Redação

A Momento Editorial nasceu em 2005. É fruto de mais de 20 anos de experiência jornalística nas áreas de Tecnologia da Informação e Comunicação (TIC) e telecomunicações. Foi criada com a missão de produzir e disseminar informação sobre o papel das TICs na sociedade.

Artigos: 11026