Supremo analisa ações que pedem mais agilidade na identificação e remoção de conteúdos ilícitos na internet, como discursos de ódio e incitações contra a democracia. Big techs veem ameaça à liberdade de expressão.
O Supremo Tribunal Federal (STF)formou maioria nesta quarta-feira (11/06) para ampliar a responsabilidade de provedores de internet, plataformas digitais e sites por conteúdos ilícitos publicados por seus usuários.
Estão em discussão dois recursos sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, lei criada em 2014 que estabeleceu os direitos e deveres para o uso da internet no Brasil.
De acordo com o texto, “com o intuito de assegurar a liberdade de expressão e impedir a censura”, as empresas do ramo, como redes sociais, são passíveis de punição somente se receberem ordem judicial determinando remoção de conteúdo ilícito e se negarem a obedecer.
Como os ministros têm se posicionado?
O julgamento foi iniciado em novembro e suspenso em dezembro do ano passado por um pedido de vista do ministro André Mendonça.
Na quinta-feira passada, o caso voltou à pauta com o voto de Mendonça, o único divergente sobre o tema. Ele entendeu que o artigo 19 do Marco Civil da Internet é constitucional e defendeu que é ilegal a remoção ou suspensão de perfis de usuários, exceto quando comprovadamente falsos ou com atividade ilícita. Para o magistrado, não é possível responsabilizar diretamente a plataforma sem prévia decisão judicial.
Os relatores das ações analisadas, ministros Dias Toffoli e Luiz Fux, votaram em novembro pela inconstitucionalidade completa da regra atual. Eles entendem que as empresas devem retirar, após notificação extrajudicial, conteúdos considerados ilegais, como mensagens com ataques à democracia, incitação à violência e racismo. Para Toffoli, o modelo atual daria imunidade às plataformas.
Fux propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que forem notificadas, e o material só poderá ser republicado com autorização judicial. Ele defendeu ainda que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de qualquer tipo de notificação.
O presidente da corte, Luís Roberto Barroso, os ministros Gilmar Mendes, Cristiano Zanin e Flávio Dino defenderam a inconstitucionalidade parcial da regra atual.
Para Barroso, as redes devem retirar postagens envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia após as empresas serem notificadas extrajudicialmente pelos envolvidos. No entanto, votou para que a remoção de postagens com ofensas e crimes contra a honra só possa ocorrer após decisão judicial, como ocorre atualmente, para proteger a liberdade de expressão.
Dino sugeriu nesta quarta uma tese segundo a qual as plataformas teriam o dever de evitar que se façam perfis falsos e seriam responsabilizadas em casos de crimes contra crianças e adolescentes, crimes de induzimento, instigação ou auxílio ao suicídio ou à automutilação, crime de terrorismo, apologia à violência e ameaça para crimes contra o Estado Democrático de Direito. No caso de crimes contra a honra, as plataformas só poderiam ser responsabilizadas se desrespeitassem ordem judicial.
Para Mendes, é inconstitucional a interpretação de que o artigo 19 concede uma “isenção absoluta” de responsabilização para plataformas.
Do que tratam as ações em julgamento?
Em um dos recursos, relatado por Toffoli, o Facebook questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Nesse caso, a discussão é sobre a constitucionalidade do artigo 19 do Marco Civil da Internet e a exigência de ordem judicial prévia para exclusão de conteúdo.
No outro recurso, relatado por Fux, o Google contesta decisão que responsabilizou a empresa por não excluir do Orkut uma comunidade criada para ofender uma pessoa, determinando o pagamento de danos morais. A plataforma questiona a atribuição de fiscalizar conteúdos publicados e de retirá-los do ar quando considerados ofensivos, sem necessidade de intervenção do Judiciário, sob o argumento de que esse tipo de fiscalização seria impossível e configuraria censura prévia por empresa privada.
Proteção insuficiente
A crítica em torno do artigo 19 é de que é preciso mais agilidade para combater o mau uso das redes sociais e frear o radicalismo no país.
“A questão da regulação das redes sociais se tornou o epítome da ideia de reconstrução democrática no Brasil e de crise democrática”, afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim.
O julgamento ganhou mais relevância com o engavetamento do projeto de lei das fake news na Câmara, após quatro anos de discussões e audiências públicas sobre como regular o modelo de negócio das plataformas. O tema foi remetido para um grupo de trabalho criado em junho, e desde então não houve avanço.
Diante da paralisação do tema no Legislativo, ministros do STF têm dado a entender que o julgamento será um marco nos debates sobre mídias sociais e democracia.
Para Keller, é importante não perder de vista que o julgamento do STF não vai resolver a questão da regulação das redes.
“O poder das plataformas vai muito além de quem responde por danos quando um conteúdo infrator é retirado ou deixa de ser retirado”, explica. “É sobre regulação do modelo de negócio das plataformas, que têm influência sobre o fluxo de informação, o fluxo de atenção, uso de dados. Há uma série de formas de exercer essa influência além do regime de responsabilidade, como a curadoria algorítmica, opacidade, uso de dados”, complementa.
No entanto, não cabe ao Supremo legislar sobre o modelo de governança dessas empresas, mas ao Congresso, que por ora enterrou o debate, lembra Keller.
O que está em jogo?
Apesar de o Marco Civil da Internet ter representado avanços significativos no direito digital, parte da legislação enfrenta questionamentos quanto à responsabilidade das plataformas pelo conteúdo postado por seus usuários.
Atualmente, a lei só responsabiliza civilmente as empresas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo ilegal – garantia presente no artigo 19. No entanto, esse regime é considerado defasado diante de um cenário tecnológico mais complexo, palco de crises democráticas e ataques à Constituição – a exemplo das articulações golpistas que se deram após as eleições de 2022.
Se os ministros decidirem pela inconstitucionalidade do artigo 19, as plataformas serão instadas a agir mais proativamente, sem a necessidade de uma interferência do Judiciário, a partir de notificações comuns de usuários.
Por outro lado, defensores do artigo 19 argumentam que as plataformas, temendo o custo de processos na Justiça, passarão a remover conteúdo preventivamente caso o dispositivo seja eliminado, cerceando a liberdade de expressão.
Discute-se uma opção intermediária, em que os ministros podem decidir manter o artigo 19 em termos gerais, mas indicar algumas exceções para casos graves – conteúdos específicos a serem removidos sem a necessidade de uma ordem judicial.
Atualmente já existem duas exceções para responsabilização das redes a partir de notificação de usuários comuns: quando se trata de disseminação não consentida de imagens íntimas e violação de direito autoral.
Para o diretor do InternetLab, Francisco Brito Cruz, ampliar as possibilidades de exceção para outras condutas graves seria um “caminho equilibrado” para o regime de responsabilidade do Marco Civil.
Dificuldade de regulamentação reflete desequilíbrio global
A Advocacia Geral da União (AGU) acompanha o julgamento e defendeu, em documento enviado ao STF, que “Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo”.
“Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis”, completou.
Para Keller, do Instituto Weizenbaum em Berlim, a dificuldade em avançar com o tema da responsabilização das redes no Brasil tem a ver com um desequilíbrio global de forças. Na União Europeia, por exemplo, as big techs operam sob leis que dão mais transparência, acesso a dados e outras garantias aos usuários.
O DSA (Digital Service Act)inaugurou um marco legal na defesa de questões concorrenciais e de direito ao consumidor de internet nos países europeus.
De acordo com a lei, não basta apenas remover ou deixar de remover conteúdo – é preciso ter uma responsabilidade mais ativa: ser transparente, reconhecer os riscos em potencial dentro do seu sistema e ter mecanismos para mitigar esses riscos quando necessário.
“Tem uma questão fundamental de desequilíbrios globais de poder – empresas que têm poder econômico em nível global significativo que não se comportam em debates de política pública na Europa como no Brasil, o maior mercado da América Latina”, diz Keller.
“Uma democracia exige um tratamento objetivo da liberdade de expressão e das comunicações que seja condizente com o que uma democracia exige: pluralismo, participação de grupos vulneráveis. Rejeitar a regulação em nome de uma liberdade de expressão nos leva para um lugar de não regulação que, paradoxalmente, acaba prejudicando a liberdade de expressão”, afirma a pesquisadora.
Tudo isso se soma a um lobby muito forte das plataformas e de como a extrema direita no Congresso brasileiro acolheu e fomentou esse discurso, pontua Keller.
Publicado pelo DW e atualizado em 11/06/2025
Por Sofia Fernandes
Nenhum comentário ainda, seja o primeiro!