OCDE: Aplicar regulação às plataformas não precisa ser papel de um único órgão
A OCDE (Organização para a Cooperação e Desenvolvimento Econômico) apresentou nesta segunda-feira, 4, o novo relatório ‘Facts not Fakes’, que aborda como combater a desinformação. O estudo reforça a necessidade de regulamentar as plataformas digitais e aponta que as atividades decorrentes das normas não precisam estar concentradas em apenas uma entidade.
“O papel e o impacto crescentes dos conteúdos digitais mostram que as autoridades, incluindo as que abrangem a proteção de dados e a privacidade, a concorrência, a comunicação social, os direitos do consumidor, as telecomunicações, as eleições, entre outras, podem todas desempenhar um papel na aplicação da regulamentação neste espaço [digital]”, consta no texto.
Por outro lado, o relatório também destaca a importância de respostas regulatórias “ágeis” e alinhadas entre os atores envolvidos. “A regulação deve se adaptar e aprimorar ao longo do tempo, incluindo uma melhor coordenação entre autoridades para reduzir respostas governamentais fragmentadas”, diz outro trecho.
Recomenda-se que os governos priorizem “ir além da autorregulação, esclarecendo o papel e as estratégias das políticas do Estado”.
Acesso à internet
O estudo também ressalta a ligação entre o acesso à internet com o acesso à informação, e chama atenção para a importância dos meios de comunicação comunitários.
“Um caminho para a ação governamental é através da construção da infraestrutura de internet, para permitir o crescimento da produção de notícias locais e comunitárias. As áreas sem banda larga ou com elevados custos de conexão têm menos incentivos econômicos para que os canais de radiodifusão e as startups forneçam notícias e informações aos residentes”, observa a OCDE.
Os autores também defendem políticas de proteção aos jornalistas, além de formas de garantir o acesso à informação pelos profissionais e meios de financiamento para projetos de checagem.
As ações de combate à desinformação, de acordo com o levantamento, também precisam estar associadas a medidas de letramento digital e educação midiática. Há ainda o alerta para não prejudicar a liberdade de expressão e opinião. “Evite restringir o discurso indevidamente, através de regulamentações para conteúdos específicos excessivamente amplas, que não atendam a critérios rigorosos, transparentes e definidos objetivamente”, recomenda-se.
“Que [as normas] sejam consistentes com as obrigações e compromissos internacionais do Estado em matéria de Direitos Humanos. Isto é particularmente importante, dadas as dificuldades na definição de “desinformação” e que legislar sobre conteúdos “legais mas prejudiciais” corre o risco de limitar o discurso”, afirma a organização no documento.
Ao abordar as formas atuais de propagação de informações, a OCDE aponta que “no futuro, o papel e o impacto dos grupos fechados e das mensagens compartilhadas em serviços de mensagem criptografada como o WhatsApp terão de ser melhor compreendidos”.
“Essas plataformas [de mensagem] proporcionam aos usuários funções valiosas de privacidade e segurança, mas também podem ser canais importantes para espalhar informações falsas e desinformação, enquanto a sua natureza privada e encriptada torna impossível a análise da compreensão do conteúdo difundido nesses canais”, observa.
Como exemplo de enfrentamento ao tema, o levantamento cita a Lei dos Serviços Digitais da União Europeia (DSA), que dispõe sobre a disponibilidade de dados para os investigadores. No Brasil, há lacunas que vêm sendo definidas pela Justiça.
Em outro tópico sobre regulação, a OCDE também manifestou preocupação com a eventual desinformação potencializada por ferramentas de inteligência artificial generativa ou manipulações de imagem, como deepfake. A orientação que se faz é para uma abordagem que “compreenda os princípios utilizados para orientar o desenvolvimento e aplicação de ferramentas de IA generativa”, “aumentar a transparência sobre as bases de dados utilizadas na sua concepção”, “exigência de marca d’água de conteúdo gerado por IA”, além de “testes, identificação e mitigação de riscos”. Algumas dessas medidas estão previstas em resolução do Tribunal Superior Eleitoral (TSE) para as campanhas deste ano.
Brasil
O lançamento do estudo ocorreu em Paris, em evento com participação do secretário de Polícias Digitais da Secretaria de Comunicação Social (Secom) da Presidência da República, João Brant. Em seu pronunciamento, ele destacou as ações de transparência com as políticas públicas, o apoio à diversidade na mídia e à educação midiática.
O secretário lembrou que o Brasil está liderando os debates do G20 neste ano e a desinformação é um dos tópicos a serem discutidos. Segundo ele, é uma oportunidade de buscar consensos e aplicar soluções descentralizadas.
Entre os apontamentos apresentados no relatório da OCDE sobre regulação, o secretário chamou atenção para a importância de definir e observar a execução das normas para responsabilidade das plataformas digitais como intermediária do conteúdo danoso. “Devemos dar uma responsabilidade diferente quando falamos de conteúdo promovido [anúncio ou post impulsionado], quando as plataformas estão sendo pagas para promover esse conteúdo”, concluiu.
Proposta de lei em fase de construção por comissão de juristas do Senado prevê exatamente esse foco, na forma de responsabilização solidária em caso de conteúdo monetizado. Saiba mais neste link.