STF retoma julgamento sobre responsabilização de plataformas digitais

00:03 | Jun. 05, 2025

Por: DW

Supremo analisa ações que pedem mais agilidade na identificação e remoção de conteúdos ilícitos na internet, como discursos de ódio e incitações contra a democracia. Big techs veem ameaça à liberdade de expressão.O Supremo Tribunal Federal (STF) retoma nesta quarta-feira (04/06) o julgamento sobre como provedores de internet, plataformas digitais e sites devem ser responsabilizados por conteúdos ilícitos publicados por seus usuários. O julgamento foi iniciado em novembro e suspenso em dezembro do ano passado por um pedido de vista do ministro André Mendonça, que será o primeiro a apresentar sua manifestação na sessão prevista para hoje. Estão em discussão dois recursos sobre a constitucionalidade do artigo 19 do Marco Civil da Internet, lei criada em 2014 que estabeleceu os direitos e deveres para o uso da internet no Brasil. De acordo com o texto, "com o intuito de assegurar a liberdade de expressão e impedir a censura", as empresas do ramo, como redes sociais, são passíveis de punição somente se receberem ordem judicial determinando remoção de conteúdo ilícito e se negarem a obedecer. Como os ministros têm se posicionado? Até o momento, três ministros votaram sobre o tema, todos eles contrários à exigência de ordem judicial prévia para remoção de conteúdo ofensivo. Em seu voto, o presidente do STF, ministro Luís Roberto Barroso, defendeu que as redes devem retirar postagens envolvendo pornografia infantil, suicídio, tráfico de pessoas, terrorismo e ataques à democracia, após as empresas serem notificadas pelos envolvidos. Barroso defendeu, contudo, que a remoção de postagens com ofensas e crimes contra a honra só pode ocorrer após decisão judicial, como ocorre atualmente. Os ministros Dias Toffoli e Luiz Fux, por sua vez, votaram pela inconstitucionalidade completa da regra atual. Eles entendem que as empresas devem retirar, após notificação extrajudicial, conteúdos considerados ilegais, como mensagens com ataques à democracia, incitação à violência e racismo. Para Toffoli, o modelo atual dá imunidade às plataformas e é inconstitucional. Do que tratam as ações em julgamento? Em um dos recursos, relatado por Toffoli, o Facebook questiona decisão do Tribunal de Justiça de São Paulo (TJ-SP) que determinou a exclusão de um perfil falso da rede social. Nesse caso, a discussão é sobre a constitucionalidade do artigo 19 do Marco Civil da Internet e a exigência de ordem judicial prévia para exclusão de conteúdo. No outro recurso, relatado por Fux, o Google contesta decisão que responsabilizou a empresa por não excluir do Orkut uma comunidade criada para ofender uma pessoa, determinando o pagamento de danos morais. A plataforma questiona a atribuição de fiscalizar conteúdos publicados e de retirás-lo do ar quando considerados ofensivos, sem necessidade de intervenção do Judiciário, sob o argumento de que esse tipo de fiscalização seria impossível e configuraria censura prévia por empresa privada. Em seu voto, Fux propôs que as empresas sejam obrigadas a remover conteúdos ofensivos à honra ou à imagem e à privacidade que caracterizem crimes (injúria, calúnia e difamação) assim que forem notificadas, e o material só poderá ser republicado com autorização judicial. Ele defende ainda que, em casos de discurso de ódio, racismo, pedofilia, incitação à violência e apologia à abolição violenta do Estado Democrático de Direito e ao golpe de Estado, as plataformas façam monitoramento ativo e retirem o conteúdo do ar imediatamente, sem necessidade de qualquer tipo de notificação. Proteção insuficiente A crítica em torno do artigo 19 é de que é preciso mais agilidade para combater o mau uso das redes sociais e frear o radicalismo no país. "A questão da regulação das redes sociais se tornou o epítome da ideia de reconstrução democrática no Brasil e de crise democrática", afirma Clara Iglesias Keller, líder de Pesquisa em Tecnologia, Poder e Dominação no Instituto Weizenbaum de Berlim. O julgamento ganhou mais relevância com o engavetamento do projeto de lei das fake news na Câmara, após quatro anos de discussões e audiências públicas sobre como regular o modelo de negócio das plataformas. O tema foi remetido para um grupo de trabalho criado em junho, e desde então não houve avanço. Diante da paralisação do tema no Legislativo, ministros do STF têm dado a entender que o julgamento será um marco nos debates sobre mídias sociais e democracia. Para Keller, é importante não perder de vista que o julgamento do STF não vai resolver a questão da regulação das redes. "O poder das plataformas vai muito além de quem responde por danos quando um conteúdo infrator é retirado ou deixa de ser retirado", explica. "É sobre regulação do modelo de negócio das plataformas, que têm influência sobre o fluxo de informação, o fluxo de atenção, uso de dados. Há uma série de formas de exercer essa influência além do regime de responsabilidade, como a curadoria algorítmica, opacidade, uso de dados", complementa. No entanto, não cabe ao Supremo legislar sobre o modelo de governança dessas empresas, mas ao Congresso, que por ora enterrou o debate, lembra Keller. O que está em jogo? Apesar de o Marco Civil da Internet ter representado avanços significativos no direito digital, parte da legislação enfrenta questionamentos quanto à responsabilidade das plataformas pelo conteúdo postado por seus usuários. Atualmente, a lei só responsabiliza civilmente as empresas se não houver cumprimento de decisão judicial determinando a remoção de conteúdo ilegal – garantia presente no artigo 19. No entanto, esse regime é considerado defasado diante de um cenário tecnológico mais complexo, palco de crises democráticas e ataques à Constituição – a exemplo das articulações golpistas que se deram após as eleições de 2022. Se os ministros decidirem pela inconstitucionalidade do artigo 19, as plataformas serão instadas a agir mais proativamente, sem a necessidade de uma interferência do Judiciário, a partir de notificações comuns de usuários. Por outro lado, defensores do artigo 19 argumentam que as plataformas, temendo o custo de processos na Justiça, passarão a remover conteúdo preventivamente caso o dispositivo seja eliminado, cerceando a liberdade de expressão. Discute-se uma opção intermediária, em que os ministros podem decidir manter o artigo 19 em termos gerais, mas indicar algumas exceções para casos graves – conteúdos específicos a serem removidos sem a necessidade de uma ordem judicial. Atualmente já existem duas exceções para responsabilização das redes a partir de notificação de usuários comuns: quando se trata de disseminação não consentida de imagens íntimas e violação de direito autoral. Para o diretor do InternetLab, Francisco Brito Cruz, ampliar as possibilidades de exceção para outras condutas graves seria um "caminho equilibrado" para o regime de responsabilidade do Marco Civil. Dificuldade de regulamentação reflete desequilíbrio global A Advocacia Geral da União (AGU) acompanha o julgamento e defendeu, em documento enviado ao STF, que "Não é razoável que empresas que lucram com a disseminação de desinformação permaneçam isentas de responsabilidade legal no que tange à moderação de conteúdo". "Essas plataformas desempenham um papel crucial na veiculação de informações corretas e na proteção da sociedade contra falsidades prejudiciais. A ausência de uma obrigação de diligência nesse processo permite que a desinformação se propague de forma descontrolada, comprometendo a confiança pública e causando danos consideráveis", completou. Para Keller, do Instituto Weizenbaum em Berlim, a dificuldade em avançar com o tema da responsabilização das redes no Brasil tem a ver com um desequilíbrio global de forças. Na União Europeia, por exemplo, as big techs operam sob leis que dão mais transparência, acesso a dados e outras garantias aos usuários. O DSA (Digital Service Act)inaugurou um marco legal na defesa de questões concorrenciais e de direito ao consumidor de internet nos países europeus. De acordo com a lei, não basta apenas remover ou deixar de remover conteúdo – é preciso ter uma responsabilidade mais ativa: ser transparente, reconhecer os riscos em potencial dentro do seu sistema e ter mecanismos para mitigar esses riscos quando necessário. "Tem uma questão fundamental de desequilíbrios globais de poder – empresas que têm poder econômico em nível global significativo que não se comportam em debates de política pública na Europa como no Brasil, o maior mercado da América Latina", diz Keller. "Uma democracia exige um tratamento objetivo da liberdade de expressão e das comunicações que seja condizente com o que uma democracia exige: pluralismo, participação de grupos vulneráveis. Rejeitar a regulação em nome de uma liberdade de expressão nos leva para um lugar de não regulação que, paradoxalmente, acaba prejudicando a liberdade de expressão", afirma a pesquisadora. Tudo isso se soma a um lobby muito forte das plataformas e de como a extrema direita no Congresso brasileiro acolheu e fomentou esse discurso, pontua Keller. Autor: Sofia Fernandes