IA: Em último debate, direitos autorais dividem Google e artistas
A comissão responsável por discutir o marco legal de Inteligência Artificial (IA) no Senado Federal realizou nesta quarta-feira, 3, a última audiência pública antes da apresentação de mais uma versão do relatório para o projeto de lei, baseado principalmente em texto formulado por juristas (PL 2338/ 2023) e o complementações do senador, Eduardo Gomes (PL-TO). Nesta tarde, os parlamentares ouviram as reivindicações de artistas e empresas, entre elas o Google, e o assunto comum entre eles foi os possíveis conflitos entre a tecnologia e os direitos autorais.
Ana Cecília Oliveira, gerente de Relações Governamentais e Políticas Públicas do Google Brasil, destacou que “a IA funciona aprendendo no dia a dia com as regras e com a diversidade de informações de dados”, por isso, a empresa busca “evitar que os desenvolvedores de Inteligência Artificial tenham obrigações que tornem o treinamento atual dos modelos mais custosos, e impossibilitem, por exemplo, que o conteúdo seja atualizado com conteúdos adequados ao regionalismo, à cultura e a identidade brasileira”.
“Tendo em vista que a legislação autoral traz princípios e regras que se aplicam às novas tecnologias, seria possível assegurar modelos que garantam meios compreensíveis para que as máquinas e os autores sejam protegidos. Dessa forma, a legislação poderia assegurar um equilíbrio entre a proteção de autores e a inovação, baseando em exemplos como os casos da Singapura e do Japão, que já permitem modelos que são mais amigáveis”, defendeu a representante do Google.
O citado modelo do Japão permite o uso de conteúdo protegido por direitos autorais para treinar a inteligência artificial. Já o texto em discussão no Brasil estabelece que “o desenvolvedor de inteligência artificial que utilizar conteúdo protegido por direitos de autor e conexos no seu desenvolvimento deverá informar quais conteúdos protegidos foram utilizados nos processos de treinamento dos sistemas de inteligência artificial, conforme disposto em regulamentação”.
A proposta de lei também prevê a realização de um “ambiente regulatório experimental (sandbox) para dispor sobre a transparência e a remuneração devida por agentes de sistemas de inteligência artificial em relação a conteúdos protegidos por direitos autorais utilizados e treinados no desenvolvimento de sistemas de inteligência artificial disponibilizados com finalidade comercial”.
Nesta semana, o Conselho Digital – entidade que fala em nome de um conjunto de plataformas digitais, incluindo o Google –, defendeu que os direitos autorais fiquem de fora da regulação da IA.
Por outro lado, a cantora Marisa Monte, que tem editora e selo fonográfico próprios, defendeu que a lei proteja os autores, prevendo mecanismos de “transparência, responsabilidade, remuneração e regulação setorial”.
“Hoje, falo em nome do setor cultural e do patrimônio intelectual brasileiro, que inclui os mais diversos profissionais da criação humana, e que vai muito além do campo musical, como: escritores desenhistas, ilustradores, pintores, artistas plásticos, atores, dubladores, roteiristas, diretores, jornalistas, fotógrafos, e até mesmo cientistas brasileiros, que quando publicam a sua obra, tem os seus direitos autorais assegurados pela constituição brasileira”, argumentou a artista.
Marisa Monte ressaltou que abriu canal de interlocução que forma um grupo de trabalho que pesquisa o tema, reunindo especialistas, ativistas e representantes do setor cultural, que vão seguir acompanhando os debates sobre a IA no Congresso Nacional e também depois, durante a regulação. “Eu conto com o apoio para assegurar que a criação humana em todas as suas formas, continue a florescer e a inspirar as futuras gerações”, concluiu.
Sugestões do Google
Além de defender um modelo “mais amigável” em relação aos direitos autorais, o Google também apresentou outros três pontos prioritários para as próximas etapas do debate de IA, conforme a exposição de Ana Cecília Oliveira:
- Governança e autorregulação
A empresa afirma que “acredita no desempenho estratégico da autorregulação”, como uma “possibilidade de um ambiente equilibrado para que se ouça as contribuições dos setores que lidam no dia a dia prático com inteligência artificial com o mesmo peso e valorização das motivações que vem da administração pública e dos usuários que defendem seus direitos”.
Quanto à governança do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que reunirá os órgãos reguladores de diversos setores, tento a Autoridade Nacional de Proteção de Dados (ANPD) com papel de “coordenação”, o Google pede a “adoção de um modelo descentralizado e subsidiário”. Aos demais órgãos reguladores setoriais, a empresa defende que eles sejam valorizados, incluindo “capacitação nas áreas de expertise”.
- Classificação de risco
Sobre a classificação dos riscos dos sistemas de IA o Google entende que a lista daqueles considerados de “alto risco”, que demanda maior rigor regulatório, deve ser revista, assim como os critérios para a avaliação de impacto algoritmo, que envolve uma análise de como a tecnologia pode atingir direitos fundamentais.
“Acreditamos que a definição atual está excessivamente ampla e abrangente e pode acarretar em custos e obstáculos desnecessários para que empresas e pesquisadores de todos os portes, desde o Google até mesmo startups, e médio e pequenos empreendedores possam continuar desenvolvendo tecnologias inovadoras e aproveitando os benefícios correntes de cada sistema”.
- Responsabilidade
O Google entende que sobre a responsabilidade por danos causados pelos conteúdos gerados por terceiros deve seguir o mesmo do disposto no Marco Civil da Internet, que blinda as plataformas digitais de responder sobre os casos sem decisão judicial – tema que está em processo de revisão no Supremo Tribunal Federal (STF).