MPF defende que marco de IA deixe direitos autorais em norma à parte
O Ministério Público Federal (MPF) encaminhou ao Senado um conjunto de contribuições para os projetos que dispõem sobre o marco legal da Inteligência Artificial no Brasil. O documento, divulgado nesta segunda-feira, 13, recomenda que as questões de direitos autorais sejam tratadas separadamente, em norma própria, fora da lei de IA.
O ofício do MPF também sugere ajustes sobre as competências da entidade reguladora de IA e as possibilidades de aplicação de sigilo aos dados (saiba mais abaixo).
O substitutivo apresentado pelo relator Eduardo Gomes (PL-TO) prevê que “não constituirá ofensa aos direitos autorais a utilização automatizada de conteúdos protegidos em processos de mineração de textos e dados para o desenvolvimento de sistemas de inteligência artificial por organizações e instituições de pesquisa, jornalismo, museus, arquivos, bibliotecas e educacionais”, desde que observadas determinadas condições, como não estar vinculado a fins comerciais e que o acesso tenha se dado de forma legítima.
O Ministério Público propõe substituir o trecho pela determinação de que “o uso em bases de treinamento de obras protegidas por direito autoral ou marcas registradas, bem como suas partes ou estilo delas decorrentes, que também sejam protegidos na forma da lei, deverão ser objeto de acordo entre as partes”.
O objetivo é encaminhar “à via consensual a solução de eventuais disputas entre os detentores de direito do autor e dos agentes de inteligência artificial [o que inclui desenvolvedores, fornecedores, aplicadores de IA], devendo essa temática ser aprofundada no âmbito dos marcos legais que cuidam da proteção aos direitos autorais”.
A atualização da lei de direitos autorais, no entanto, enfrenta impasse no Congresso Nacional, sem previsão de análise.
Autoridade e sigilo
O projeto de marco legal de IA, conforme o substitutivo preliminar de Gomes, propõe a implementação de um Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que envolve diversos órgãos reguladores, com uma autoridade coordenadora, a chamada “autoridade competente”, com características de autarquia especial, responsável por fiscalizar o cumprimento da lei e aplicar sanções. O relator defende que essa autarquia seja a Autoridade Nacional de Proteção de Dados (ANPD) mas este ponto não está previsto no texto, com expectativa de prever apenas a definição de um órgão por parte do Poder Executivo.
A versão do texto em análise proíbe a implementação e o uso de sistemas de inteligência artificial em algumas atividades, como as que explorem vulnerabilidade, possibilitem ou facilitem crimes, sistemas de armas autônomas e ranqueamento de pessoas naturais com base em comportamento ou atributos físicos.
O MPF defende que a autoridade competente possa ampliar esse rol de atividades proibidas no uso de IA, desde que “em procedimento administrativo pertinente, por meio de decisão fundamentada que demonstre a necessidade e a gravidade dos impactos potenciais” e “com revisões periódicas das inclusões administrativas”.
Outra proposta de inclusão ao texto apresentada pelo Ministério Público é a de proibir “quaisquer alegações de sigilo” quando os agentes de IA estiverem intimados pelas autoridades competentes a demonstrar o cumprimento da legislação. A informação a ser compartilhada deve ser, por lei, de fácil compreensão.
“Trata-se de consagração do dever de cooperação, essencial para que os órgãos responsáveis pela fiscalização dos agentes e sistemas de inteligência artificial possam adequadamente realizar o cumprimento das suas funções, na forma do ordenamento jurídico”, justifica o MPF.
Imagens criadas por IA
Quanto aos conteúdos produzidos por IA generativa (como imagem, vídeo, áudio e gráfico), o MPF sugere obrigar “aviso claro de que se trata de ‘mídia criada com o uso de inteligência artificial regenerativa'”, quando “tenham sido criados, total ou parcialmente, com base em seus modelos, e que consista em pessoa real tendo atitude que não ocorreu ou que afete sua honra”.
Ao defender o ajuste, destacam no ofício que “o uso de vídeos e áudios criados via inteligência artificial para representar falsamente pessoais reais está se expandindo, com representações que tornam impossível ao homem médio a identificação do que é real e do que é fabricado”.
“Somente com o envolvimento, traceabilidade e responsabilização de toda a cadeia de produção, comercialização e uso de sistemas de inteligência regenerativa no sentido de expor as fraudes, aí excluídas, evidentemente, situações com anuência da pessoa caracterizada, poderá diminuir os enganos e criar um cenário de maior confiabilidade, inclusive para fins de integridade do sistema eleitoral e da democracia”, acrescenta.
Acesse aqui a íntegra das contribuições do MPF ao projeto de IA.