Google apresenta medidas para lidar com IA nas Eleições 2024

Empresa barra a criação de imagens de candidatos que podem ser usadas em contexto de desinformação, promove ferramentas de checagem e adota mecanismos de cooperação.
Google destaca próprias ferramentas no combate à desinformação com IA nas Eleições 2024 | Foto: Freepik
Google destaca próprias ferramentas no combate à desinformação com IA nas Eleições 2024 | Foto: Freepik

Antes que as regras para anúncios políticos durante as eleições começassem a valer no Brasil, em maio deste ano, o Google decidiu barrar essa categoria de impulsionamento, para evitar violação dos termos impostos pela Justiça. No entanto, a possibilidade de eventuais brechas e, ainda, a obrigação de combater a desinformação, continua a demandar a big tech, e neste ano com um elemento a mais, que é a inteligência artificial à disposição dos usuários e na mira das autoridades. Neste sentido, parte da equipe de políticas da empresa de tecnologia apresentou à imprensa nesta segunda-feira, 5, como pretende enfrentar os desafios nos próximos meses. 

A regra do jogo, conforme Resolução do Tribunal Superior Eleitoral (TSE), proíbe propagandas que contenham “conteúdo fabricado ou manipulado para difundir fatos notoriamente inverídicos ou descontextualizados com potencial para causar danos ao equilíbrio do pleito ou à integridade do processo eleitoral”. Ainda conforme a norma, as plataformas digitais podem ser responsabilizadas se não retirarem do ar, “imediatamente, conteúdos e contas que infrinjam as regras”. 

Com exceção da deepfake, os conteúdos gerados por IA podem ser admitidos, desde que identificados “de modo explícito, destacado e acessível” como “fabricado ou manipulado”, além de contar com transparência sobre qual foi a tecnologia utilizada e, obviamente, não se tratar de desinformação. 

Ao detalhar como o Google pretende lidar com a IA, o gerente de Relações Governamentais e Políticas Públicas do Google, Luiz Moncau, destacou três principais frentes:

  • Salvaguardas

Tendo como base o Gemini, ferramenta de IA da big tech, Moncau explicou que a programação já não permite determinados comandos. “Se você fizer alguma pergunta sobre eleições, possivelmente você vai receber essa resposta: ‘hoje, eu não posso ajudar você com resposta sobre eleições e figuras políticas’, por isso, o produto sugere que você use a busca do Google”, explica.

Segundo Moncau, a negativa será apresentada também para perguntas como “em qual candidato votar”, ou solicitações para criar imagem de algum candidato em determinado contexto. 

  • Identificação de conteúdos e cooperação

Quando se tratar de imagem gerada por IA do Google, a empresa dispõe da ferramenta SynthID para identificar marca d’água. Para aplicativos desenvolvidos por outras empresas, a big tech aposta em acordos de cooperação para definir padrões e especificações para que diferentes empresas consigam ler as marcas d’água das outras. 

  • Contexto

Moncau também destacou a funcionalidade de pesquisar sobre a imagem no Google, que foi aprimorada para “criar maneiras fáceis do usuário descobrir se aquela imagem circulou em alguma outra plataforma”, além de acessar notícias relacionadas, incluindo agências de checagem, entre outros contextos.

Controle

Será feita a remoção dos conteúdos que estiverem em desacordo com a política do Google, o que inclui anúncios políticos, ou que a Justiça determinar a retirada. 

Natalia Kuchar, consultora jurídica no Google, ressalta que o Google conta com um monitoramento automatizado, mas também atuará com base nas denúncias. 

“Tem algumas políticas –  que aí eu acho que vem um pouco também da ideia que a gente tem de uma internet livre e aberta –  que vão ser violadas. E a gente só vai detectar isso quando os usuários verem esse conteúdo violativo.  Eu acho que é um pouco do jogo dessa internet aberta, de ter a denúncia. A denúncia é aberta para qualquer usuário” disse Kuchar.

A empresa reconhece que há limites. “O esperado não é que não haja conteúdos violativos, mas [a questão é] o que vamos fazer a partir de uma vez detectado. A gente tem uma camada de automatização, tem checagens que, inclusive, podem passar por checagem humana, e isso faz parte da natureza da internet. […] Por mais que a gente se esforce, pode passar um ou dois, mas vamos aprender com isso. É exatamente assim que a gente vai atuar durante as eleições”, acrescentou. 

Kuchar concluiu apresentando os números da moderação do Google no ano de 2023: 31 políticas foram atualizadas, houve 5,5 bilhões de anúncios removidos por violações e 12 milhões de contas suspensas.

Avatar photo

Carolina Cruz

Repórter com trajetória em redações da Rede Globo e Grupo Cofina. Atualmente na cobertura dos Três Poderes, em Brasília, e da inovação, onde ela estiver.

Artigos: 974