Novo texto do PL das Fake News define autarquia como entidade e altera responsabilidades
Uma nova versão do substitutivo ao Projeto de Lei 2630/2020, conhecido como PL das Fake News, traz maior detalhamento da entidade autônoma de supervisão. Conforme o texto obtido pelo Tele.Síntese, ela deve ser “órgão da administração pública indireta, de natureza de autarquia federal especial”.
O texto mais atual também traz mudanças no capítulo sobre a responsabilidade das plataformas digitais pelo conteúdo dos usuários. Há previsão de que os provedores de redes sociais devem responder civilmente e administrativamente caso não tomem medidas preventivas contra postagens que gerem danos (saiba mais abaixo).
A entidade autônoma de supervisão é fruto de recomendação do governo federal ao PL das Fake News, como a responsável por ditar diretrizes para moderação de conteúdo, fiscalizar, abrir protocolos de segurança – procedimentos de monitoramento – e aplicar sanções às plataformas digitais. Na segunda versão do substitutivo, divulgada na última semana, ela já havia sido incorporada, mas sem definição expressa de sua natureza.
Caberá ao Poder Executivo regulamentar a entidade autônoma em uma norma posterior à sanção da lei. Não há um prazo definido para que isso ocorra. Provisoriamente, o papel de supervisão será exercido pelo Comitê Gestor da Internet no Brasil (CGI.br).
Tipos de responsabilidade
As ações preventivas envolvem a chamada “análise e atenuação de riscos sistêmicos”, procedimento previsto no PL no qual obriga provedores a seguir diretrizes de moderação de conteúdo a serem definidas por uma entidade supervisora autônoma a ser estabelecida pelo Poder Executivo.
Esta entidade em questão será responsável por abrir protocolos de segurança para avaliar a conduta das plataformas digitais e aplicar sanções, se necessário.
O novo texto prevê os seguintes tipos de responsabilização:
- civilmente, de forma solidária, pela reparação dos danos causados por conteúdos gerados por terceiros cuja distribuição tenha sido realizada por meio de publicidade de plataforma;
- administrativamente, pelo descumprimento das obrigações de análise e atenuação de riscos sistêmicos e
- administrativa e civilmente, de forma solidária, por danos decorrentes de conteúdos gerados por terceiros quando houver descumprimento das obrigações de dever de cuidado ou risco iminente de danos, na duração do protocolo de segurança.
Na versão anterior, estava prevista apenas a responsabilidade “solidária com o terceiro” nos casos de anúncios com conteúdo que gera danos. A lista de responsabilidades citava ainda “de análise e atenuação de riscos sistêmicos”, “de dever de cuidado” e “quando houver risco iminente de danos”. Estes pontos continuam previstos na lei, mas entre as obrigações impostas aos provedores.
Um trecho inserido no novo texto especifica que “a responsabilização dos dirigentes dos provedores dependerá dos resultados da avaliação do dever de cuidado e não implicará responsabilidade penal pelos crimes relacionados a conteúdos produzidos por terceiros.
Dever de cuidado
O dever de cuidado se configura na exigência de que os provedores de redes sociais atuem de forma “hábil e diligentemente quando forem notificados, sobre conteúdos potencialmente ilegais gerados por terceiros no âmbito de seus serviços, que configurem ou incitem”:
- crimes contra o Estado Democrático de Direito e de golpe de estado;
- atos de terrorismo e preparatórios de terrorismo;
- crime de induzimento, instigação ou auxílio a suicídio ou a automutilação;
- crimes previsto no Estatuto da Crianças e Adolescentes e de incitação à prática de crimes contra crianças e adolescentes ou apologia de fato criminoso ou autor de crimes contra crianças e adolescentes;
- crimes de discriminação ou preconceito;
- violência política contra a mulher; e
- infração sanitária, por deixar de executar, dificultar ou opor-se à execução de medidas sanitárias quando sob situação de Emergência em Saúde Pública de Importância Nacional.
Risco iminente
O PL também mantém do substitutivo anterior a previsão de “obrigações quando houver risco iminente de danos”. Trata-se daqueles danos que impactam direitos fundamentais. Ao longo dos debates políticos, um exemplo posto para este tipo de situação foi a mobilização via redes sociais para agregar manifestantes ao atentado antidemocrático de 8 de janeiro, em Brasília.
A identificação de risco pode ocorrer por monitoramento da própria plataforma de conteúdo ou por meio de canal de denúncia.
Em caso de risco iminente, é aberto protocolo de segurança pela entidade supervisora para monitorar e tomar medidas cabíveis.