TikTok e Twitter constroem defesa no STF em prol da liberdade de expressão
O TikTok e o Twitter participaram de debate no Supremo Tribunal Federal (STF) nesta terça-feira, 28, sobre a responsabilidade civil dos provedores de conteúdo a crimes praticados pelos usuários em suas plataformas. Em discurso semelhante, as empresas defenderam a manutenção da versão atual do Marco Civil da Internet quanto ao alcance das moderações, sob pena de prejuízo à liberdade de expressão.
Fernando Gallo, diretor de políticas públicas do TikTok no Brasil, enfatizou que a rede social tem apenas seis anos e que observou os debates judiciais sobre as plataformas que lhe antecederam.
“Trabalhamos para sermos, o tempo todo, previdentes, principiológicos e conscienciosos. Pois sabemos que as decisões que tomamos podem ter efeitos para liberdade de expressão e os direitos fundamentais nos anos e nas décadas a seguir’, disse Gallo.
Relatório mais recente do TikTok, divulgado na audiência no STF, referente ao terceiro trimestre de 2022, mostra que a plataforma removeu em todo o mundo quase 111 milhões de vídeos. De acordo com o balanço, 96,5% destes conteúdos foram identificados pela moderação da empresa sem qualquer denúncia — sendo 92,7% excluídos em até 24 horas e 89,5% antes da primeira visualização.
Durante as eleições de 2022, o TikTok afirma que recebeu 90 ordens judiciais que determinaram a remoção de 222 URLs, por desinformação – entre fevereiro e novembro. Nesse período, foram removidos 66.020 links proativamente, segundo a empresa.
Já na semana de 8 a 15 de janeiro deste ano, quando o debate sobre os atos antidemocráticos em Brasília estava em alta, o TikTok registrou duas ordens judiciais, que determinaram a remoção de cinco URLs. No mesmo período, a empresa diz que removeu 10.437 vídeos por violação a suas políticas de extremismo violento e desinformação.
“Esses números demonstram, cabalmente, que não estamos passivos, nem inertes, nem lenientes. Muito pelo contrário, estamos trabalhando proativa e permanentemente para remover conteúdo violativo”, afirmou o diretor de políticas públicas da plataforma.
Ainda de acordo com Gallo, uma “regulação, quando muito bem sopesada e construída para durar, pode ter um papel importante em assegurar um ambiente digital seguro para todos”.
“São 18,5 mil conteúdos denunciados por dia e 6,6 milhões durante o ano, avaliamos cada uma dessas denúncias de acordo com as nossas regras e atuamos de acordo. Uma parte desse conteúdo é moderada, outra parte é legítima. Se na remota possibilidade deste Supremo Tribunal Federal decidir que o artigo 19 é inconstitucional, tornando plataformas como o TikTok corresponsáveis por conteúdos sem estabelecer critérios e parâmetros objetivos para notificações, nós teremos contra nós, dado o risco de litigância, um perverso incentivo para remoção de expressivo número de conteúdos todos os dias, incluindo, aqueles legítimos”, disse Gallo.
O debate no STF analisa a constitucionalidade do artigo 19 do Marco Civil da Internet, que diz que “o provedor de aplicações de internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial específica, não tomar as providências”.
Jacqueline Abreu, consultora Jurídica do Twitter Brasil, afirmou que o artigo 19 foi construído a partir de “raro diálogo multissetorial” e é central para proteção do discurso da expressão pública de toda e qualquer pessoa, em especial daqueles em posições menos privilegiadas”.
“Esse dispositivo é uma decisão política legítima do legislativo e qualquer discussão mais geral sobre aperfeiçoamento de regulação de plataformas, pertence ao Legislativo”, disse.
Apesar de pontuar a competência que foge do Judiciário, a consultora do Twitter destacou que é “plenamente válido que se discuta esse outro universo de questões que o artigo 19 não pretendeu resolver, como a regulação das práticas de moderação de conteúdo do ponto de vista das plataformas digitais”.
A defesa da empresa aponta que em 2022 foi acionada judicialmente em 247 processos versando sobre remoção de conteúdo. Naqueles em que se fez um pedido liminar de remoção, 72 tiveram o pedido de remoção aceito e em outros 70 o pedido foi negado.
“Isto é, na metade dos casos, o próprio judiciário entendeu que deveria se permitir o contraditório e a dilação probatória antes de se avaliar se aquele conteúdo era infringente ou não. Essas controvérsias vão continuar existindo, afirmou Abreu, complementado em seguida que a regra atual, de não corresponsabilização, é a mais adequada.
Outro lado
O secretário de Políticas Digitais da Secretaria de Comunicação Social (Secom) da Presidência da República, João Brant, também participou do debate no STF, com discurso que bate de frente com o defendido pelas redes sociais.
“À época da discussão do Marco Civil da Internet, essa opção [não responsabilização dos provedores] foi feita pela preocupação em proteger a liberdade de expressão. E a racionalidade dela consiste no fato de que: se as plataformas fossem responsáveis pelos conteúdos de terceiros, iriam adotar uma política de restrição de discursos, por cautela e por temor de serem responsabilizados. Ainda que esse temor deva ser considerado, é preciso reconhecer que a proteção de um direito fundamental na sua dimensão individual não se deu de forma equilibrada com diversos outros direitos que ficaram desguarnecidos”, afirmou.
Brant defende que as plataformas sejam, sim, corresponsabilizadas pelos ilícitos dos usuários. “Se elas já são responsáveis pela publicidade que aceitam e pelo que vemos nos nossos perfis, não deveriam se eximir totalmente da responsabilidade de cuidar e de evitar a ampliação da circulação de conteúdos considerados ilícitos pela legislação brasileira”, afirmou o secretário.
Brant destacou, por fim, que o governo não vê como caminho “adotar um entendimento que inverte em 180 graus o regime atual”, mas sim uma “gradação”.
“Entre o modelo atual de responsabilidade praticamente nula e o modelo de total responsabilidade objetiva, há uma gradação de tonalidades que podem garantir arranjos que poderiam produzir um melhor equilíbrio entre direitos a partir do estabelecimento de deveres de cuidado de devida diligência para as plataformas, especialmente, contra conteúdos ilegais ou conteúdo nocivos que afetam direitos coletivos”, concluiu Brant.