Marco Civil da Internet: Barroso abre terceira via no STF
O Supremo Tribunal Federal (STF) realizou nesta quarta-feira, 18, a última sessão deliberativa do ano, dando continuidade ao julgamento que trata da responsabilidade das plataformas digitais sobre o conteúdo gerado pelos usuários no âmbito do Marco Civil da Internet. O debate foi suspenso logo após o voto do presidente da Corte, Luís Roberto Barroso, que abriu uma terceira via de entendimento, com pontos contrários e também comuns aos relatores.
O trecho do Marco Civil da Internet em análise pelo Supremo – Artigo 19 – diz que o provedor somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado pelos usuários se, após ordem judicial, não excluir tal conteúdo infringente. A lei expressa que a regra em questão tem “o intuito de assegurar a liberdade de expressão e impedir a censura”. Com isso, o debate observa se haveria aplicação inadequada da regra em casos que, por exemplo, não necessariamente envolvem a liberdade de expressão, o que estaria favorecendo a violação de outros direitos fundamentais, o que seria inconstitucional.
Barroso entende que as plataformas devem ser responsabilizadas caso não tomem medidas a partir do conhecimento de postagem ilícita, mas ressalva que, em alguns casos, a Justiça ainda deve ser ouvida antes de uma remoção de conteúdo (veja em detalhes mais abaixo). Com isso, ele concluiu, ao contrário dos relatores, que o artigo 19 é “parcialmente” e não totalmente inconstitucional.
Ainda entre divergências, Barroso é contra impor uma “obrigação adicional” para marketplaces, como sugeriu Dias Toffoli. Por outro lado, reforça o apelo proposto pelo magistrado, para que o Congresso Nacional avance em uma lei para regulamentação, destacando que o Supremo está agindo pela falta de lei.
Entenda os votos
O tema é discutido no âmbito de dois recursos. Um deles (RE 1.037.396) é do Facebook, motivado por pedido de exclusão de perfil falso e retirada de conteúdo da rede, com relatoria do ministro Dias Toffoli. O segundo (RE 1.057.258) é do Google, analisando também a responsabilidade da empresa em fiscalizar e indisponibilizar conteúdo ofensivo, relatado por Luiz Fux.
Barroso foi o primeiro ministro a se manifestar após os relatores, Fux e Toffoli, ambos pela inconstitucionalidade do artigo 19, mas com teses diferentes, que resultam em impactos distintos.
Toffoli
Toffoli apresentou um voto que detalha os impactos para diferentes serviços digitais. De forma geral, para ele, o Supremo deveria consolidar interpretação que amplie o escopo de outro trecho da lei (Artigo 21), que já prevê a iniciativa das empresas para retirarem conteúdos que violem a intimidade, como nudez e atos sexuais, a partir da notificação de denunciante (ofendido), mesmo que extrajudicialmente.
Há, ainda, na visão do ministro, a possibilidade de responsabilidade objetiva (quando a reparação do dano não está condicionada à culpa), independente de notificação, nas hipóteses de: postagem impulsionada ou patrocinada; perfil falso; crime contra o Estado Democrático de Direito; atos de terrorismo ou preparatórios de terrorismo; induzimento ao suicídio ou automutilação; racismo; ou qualquer tipo de violência contra a criança.
Além disso, casos de violação ao direito autoral, para Toffoli, devem gerar responsabilidade solidária da plataforma, ou seja, as redes sociais podem responder junto ao autor da postagem irregular no pedido de reparação.
No caso de “plataformas e blogs jornalísticos“, o ministro defende a aplicação exclusiva da lei que dispõe sobre o direito de resposta (Lei nº 13.188, de 11 de novembro de 2015).
Já aos marketplaces, o voto de Toffoli sugere que as empresas respondam de forma objetiva e solidária com o respectivo anunciante nas hipóteses de anúncios de produtos de venda proibida ou sem certificação ou homologação pelos órgãos competentes no país (quando exigida), sem prejuízo da responsabilidade por vício ou defeito do produto ou serviço, conforme o Código de Defesa do Consumidor, e da aplicação do próprio MCI, que admite hipóteses de remoção.
Por fim, Toffoli propõe inserir na decisão um prazo de 18 meses para que o governo federal e o Congresso Nacional construam uma “política pública destinada ao enfrentamento da violência digital e da desinformação”, com a observação de incluir especialmente alguns órgãos na implementação, entre eles, a Agência Nacional de Telecomunicações (Anatel) e o Ministério das Comunicações (MCom).
Fux
Fux apresentou uma tese mais enxuta. Em entendimento semelhante ao de Toffoli, ele sugere considerar “evidentemente ilícito” o conteúdo gerado por terceiro que veicule “discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado Democrático de Direito e apologia ao Golpe de Estado“, hipóteses em que “há para as empresas provedoras um dever de monitoramento ativo, com vistas à preservação eficiente do Estado Democrático de Direito”.
Por outro lado, Fux sugere ressalvas sobre a possibilidade da responsabilidade das plataformas independentemente de uma notificação. Para ele, “nos casos de postagens ofensivas à honra, à imagem e à privacidade de particulares, a ciência inequívoca da ilicitude por parte das empresas provedoras, necessária à responsabilização civil, dependerá de sua prévia e fundamentada notificação pelos interessados, que poderá ser realizada por qualquer meio idôneo, cabendo às plataformas digitais o dever de disponibilizar meios eletrônicos eficientes, funcionais e sigilosos para o recebimento de denúncias e reclamações de seus usuários que se sintam lesados”.
Contudo, o conhecimento do conteúdo ilícito, para o ministro, deve ser “presumido”, nos casos de postagens impulsionadas a partir de pagamento às plataformas.
Barroso
Para Barroso, o artigo 19 é “apenas, parcialmente inconstitucional“, pois, de um lado, seria “legítimo que, em muitas situações, a remoção de conteúdos somente deva se dar após ordem judicial”. Por outro lado, reconhece que “não há fundamento constitucional para um regime que incentiva que as plataformas permaneçam inertes após tomarem conhecimento de claras violações da lei penal”.
A partir disso, o presidente do STF entende que a remoção de conteúdo em casos de ofensas e crimes contra a honra devem esperar uma decisão judicial. “Conteúdos relacionados à honra, ainda que se alegue que representem crimes de injúria, calúnia ou difamação, devem permanecer, na minha visão, sobre o regime do artigo 19 do Marcos Civil da Internet [que exige ordem judicial], sob pena de violação à liberdade de expressão”, detalhou.
A visão de Barroso está alinhada com a defendida pela Associação Brasileira de Jornalismo Investigativo (Abraji). A entidade defendeu que a análise dos pedidos de retirada de conteúdo com ofensa à honra fique a critério da Justiça por ser uma alegação comum na contestação de reportagens de denúncias, mesmo que baseadas em fatos e apuração profissional.
Para o ministro, não deveria haver um regime de responsabilidade objetiva para as plataformas. “A responsabilidade de intermediários por danos gerados por conteúdos de terceiros, na minha visão, deve ser sempre subjetiva [quando é necessário comprovar a culpa]”, disse.
Barroso também tem ressalvas sobre a responsabilização independente de notificação, sugerida por Toffoli. “Em lugar de monitoramento ativo com responsabilidade independentemente de notificação por cada conteúdo individual, eu proponho a alternativa do dever de cuidado, com responsabilização apenas por falha sistêmica“, afirmou.
O magistrado defendeu também não incluir “qualquer obrigação adicional para marketplaces, por não ter sido esse o objeto do debate“. A conclusão do presidente do STF, neste ponto, atende em parte o que defenderam empresas como Mercado Livre, que pediram o reconhecimento de distinção de seus serviços em relação às redes sociais. Por outro lado, as plataformas de e-commerce defendiam a constitucionalidade do artigo 19, o que nenhum ministro defendeu, até o momento.
Ainda ao descorrer sobre seu posicionamento, Barroso reforçou a necessidade de apelo para que o Congresso Nacional supra a demanda por uma lei acerca das plataformas digitais. “Faço o apelo ao legislador para que ele proveja esta situação, disciplinando e criando o órgão próprio que vai ter este papel de monitoramento e eventual sancionamento dos comportamentos indevidos. […] Todos nós aqui esperamos e, oportunamente, nós respeitamos o Congresso Nacional e as dificuldades de consenso nessa matéria, mas nós só estamos atuando porque ainda não há lei e, portanto, nós precisamos criar um regime jurídico para este tema”, ressaltou.
O julgamento começou no dia 27 de novembro e foi pautado em todas as semanas seguintes. A suspensão se deu por pedido de vista do ministro André Mendonça. A retomada está prevista a partir de 2025, em decorrência do início do recesso judiciário, que começa nesta sexta-feira, 20.