STF forma maioria pela responsabilização civil das redes sociais

Brasília, Brasil – Em um movimento que promete reconfigurar o cenário digital brasileiro, o Supremo Tribunal Federal (STF) formou maioria, nesta quinta-feira, 12 de julho de 2025, a favor da responsabilização civil das plataformas digitais por conteúdos ilícitos publicados por seus usuários. A decisão, aguardada com grande expectativa por juristas, especialistas em tecnologia e pela sociedade civil, aponta para uma drástica alteração no entendimento legal que, até então, concedia uma ampla blindagem às gigantes da internet. O alvo principal do julgamento é a constitucionalidade do Artigo 19 do Marco Civil da Internet, que atualmente protege as plataformas de qualquer tipo de responsabilização, a menos que descumpram uma ordem judicial específica para remoção de conteúdo.

Para a maioria dos ministros da Corte, esse modelo, concebido em 2014, tornou-se ineficiente e obsoleto diante da velocidade e escala com que conteúdos nocivos – como discursos de ódio, incitação ao crime, fake news e postagens antidemocráticas – se propagam pelas redes. O entendimento majoritário aponta para a necessidade de as plataformas assumirem um papel mais proativo e responsável na moderação do que é veiculado em seus ambientes.

Anúncio. Role para continuar lendo.

O ministro Alexandre de Moraes, relator de um dos processos em pauta e figura central em debates sobre liberdade de expressão e controle de desinformação, proferiu um voto contundente pela inconstitucionalidade da norma. Em sua manifestação, o ministro foi enfático: as plataformas “não podem ser uma terra sem lei”. Para ilustrar a urgência da mudança, Moraes apresentou exemplos chocantes de publicações de natureza criminosa que permanecem disponíveis online mesmo após denúncias reiteradas. Ele citou casos de conteúdo racista explícito e de incentivo à automutilação de jovens, que, apesar de flagrantemente ilegais e perigosos, continuavam acessíveis, evidenciando a falha do modelo atual em proteger os usuários mais vulneráveis. O voto de Moraes sublinhou a necessidade de um sistema que priorize a proteção da dignidade humana e a segurança pública acima da imunidade quase absoluta das empresas de tecnologia.

STF forma maioria pela responsabilização civil das redes sociais

O Placar do Julgamento e as Vias Divergentes

Até o momento da suspensão do julgamento, o placar eletrônico do STF marcava um expressivo 7 a 1 a favor da responsabilização das plataformas. Esse consenso majoritário reflete uma preocupação crescente entre os magistrados com os impactos negativos das redes sociais na sociedade e na democracia.

Votaram nesse sentido os ministros:

  • Alexandre de Moraes (Relator): Fundamenta seu voto na urgência de coibir abusos e crimes online, defendendo que as plataformas têm um dever intrínseco de diligência.
  • Gilmar Mendes: Considera o modelo atual um “véu de irresponsabilidade” para as big techs, criticando a proteção desproporcional.
  • Cristiano Zanin: Acompanha a tese da responsabilidade, alinhando-se à necessidade de um equilíbrio entre liberdade e dever.
  • Luiz Fux: Preocupa-se com os efeitos da desinformação e dos crimes de ódio na estabilidade democrática e social.
  • Dias Toffoli: Argumenta que a inação das plataformas frente a conteúdos nocivos é uma forma de conivência.
  • Luís Roberto Barroso (Presidente da Corte): Tem sido um defensor veemente da moderação proativa, destacando a necessidade de as plataformas atuarem como guardiãs da integridade do ambiente digital.
  • Flávio Dino: Conhecido por sua postura mais rigorosa em relação à regulação do ambiente digital, especialmente no combate à desinformação.

O único voto contrário, até o momento, foi o do ministro André Mendonça. Sua argumentação centra-se na defesa da manutenção da exigência de ordem judicial para a retirada de conteúdos. Para Mendonça, a responsabilização direta das plataformas poderia levar a um cenário de censura privada, onde as empresas, por receio de sanções, passariam a remover conteúdos de forma excessiva e arbitrária, ferindo a liberdade de expressão dos usuários. Ele defende que o judiciário deve ser o único árbitro do que é ou não ilícito, evitando que as plataformas se tornem “polícia da internet” com critérios próprios e potencialmente tendenciosos.

A Suspensão e a Definição da Tese Jurídica

Apesar da formação da maioria, o julgamento foi suspenso e será retomado no dia 25 de outubro de 2025. Essa suspensão é comum em processos complexos no STF e serve para que os ministros possam refinar a tese jurídica – o conjunto de regras e princípios que irá orientar a aplicação da decisão nas instâncias inferiores do judiciário.

A definição da tese é um ponto crucial, pois ela detalhará como a responsabilidade das plataformas será implementada. Questões como:

  • Notificação Prévia: Será que a plataforma será responsabilizada apenas após ser notificada sobre o conteúdo ilícito, ou haverá um dever de vigilância proativa?
  • Diligência da Plataforma: Quais serão os parâmetros para avaliar se a plataforma agiu com a devida diligência na remoção de conteúdo? Haverá prazos?
  • Tipos de Conteúdo: A responsabilização se aplicará a todos os tipos de conteúdo ilícito (discurso de ódio, fake news, incitação ao crime, pirataria, etc.) ou haverá distinções?
  • Modulação Temporal: A decisão terá efeito retroativo ou só valerá para casos futuros?

Esses detalhes são essenciais para evitar insegurança jurídica e para que as plataformas possam se adaptar às novas regras de forma clara e eficaz. A tese jurídica é o que transformará o “sim” geral à responsabilização em um conjunto de diretrizes operacionais para o ecossistema digital.

O Marco Civil da Internet e a Evolução do Ambiente Digital

O Marco Civil da Internet (Lei nº 12.965/2014) foi, em seu tempo, um divisor de águas. Elogiado internacionalmente por sua abordagem equilibrada, a legislação buscava proteger a neutralidade da rede, a privacidade e a liberdade de expressão dos usuários. Seu Artigo 19, que estabelecia a necessidade de ordem judicial para a remoção de conteúdo por provedores de aplicação, era visto como um pilar contra a censura e a retirada arbitrária de postagens.

No entanto, o cenário da internet mudou drasticamente em uma década. As redes sociais, antes plataformas de conexão, se transformaram em centros de debate público, fontes primárias de informação e, lamentavelmente, veículos para a disseminação em massa de conteúdos prejudiciais. A capacidade de viralização, a complexidade dos algoritmos e o volume colossal de dados gerados diariamente impõem novos desafios que a legislação original não previa.

Estatísticas recentes destacam a dimensão do problema:

  • Um estudo da Agência Lupa em parceria com a Universidade Federal de Minas Gerais (UFMG) indicou que 49% dos brasileiros admitiram ter acreditado em alguma notícia falsa sobre política ou saúde em 2023.
  • Relatórios de organizações de direitos humanos mostram um aumento expressivo de denúncias de discursos de ódio online, com um crescimento de 30% em 2024 em comparação com 2023, especialmente em plataformas de vídeo e redes sociais.
  • A SaferNet Brasil registrou, em 2024, mais de 10.000 denúncias de crimes cibernéticos envolvendo pornografia infantil, automutilação e cyberbullying, muitas delas com conteúdo persistente em plataformas mesmo após tentativas de remoção.

Esses números ilustram a lacuna que o Artigo 19, em sua interpretação original, deixou aberta, permitindo que conteúdos nocivos permanecessem no ar por longos períodos enquanto se aguardava uma decisão judicial. A reinterpretação do STF busca preencher essa lacuna, adaptando a lei à realidade da internet atual.

O Impacto Profundo no Ecossistema Digital Brasileiro

O resultado desse julgamento pode impactar diretamente a atuação das principais redes sociais e plataformas de conteúdo no Brasil, como Facebook, Instagram, X (antigo Twitter), TikTok e YouTube. A responsabilização civil significará que essas empresas terão um incentivo muito maior para investir em:

  • Sistemas de Moderação Mais Robustos: Contratar mais moderadores humanos, aprimorar algoritmos de inteligência artificial para identificar e remover conteúdos ilícitos de forma proativa, mesmo antes de denúncias.
  • Políticas de Uso Mais Rígidas: Revisar seus termos de serviço e diretrizes comunitárias para refletir as novas obrigações legais, deixando claro o que é permitido e o que não é.
  • Mecanismos de Denúncia Eficientes: Criar canais mais rápidos e transparentes para que usuários e autoridades possam denunciar conteúdos, com prazos claros para a análise e remoção.
  • Transparência e Responsabilidade: As plataformas podem ser obrigadas a divulgar relatórios de transparência sobre a moderação de conteúdo, detalhando o volume de remoções, os motivos e os critérios utilizados.
  • Investimento em Educação Digital: É possível que parte da tese jurídica exija que as plataformas invistam mais em campanhas de conscientização sobre o uso responsável da internet e o combate à desinformação.

Por outro lado, a preocupação com a censura privada, levantada pelo ministro André Mendonça, é legítima e precisará ser abordada na tese jurídica. É fundamental que as plataformas não se tornem juízes arbitrários do que pode ou não ser publicado, e que os usuários tenham direito a recursos e a um processo justo caso seus conteúdos sejam removidos indevidamente.

O Futuro da Regulação Digital no Brasil

A decisão do STF é um marco importante que pavimenta o caminho para uma discussão mais ampla sobre a regulação das redes sociais no Brasil. O Congresso Nacional, que tem debatido intensamente projetos como o chamado “PL das Fake News”, certamente será influenciado por esse posicionamento do judiciário. A Corte está enviando um sinal claro de que as plataformas não podem operar em um vácuo legal e que o Estado tem o dever de proteger seus cidadãos no ambiente online.

Esse debate envolve uma série de pontos sensíveis:

  • Liberdade de Expressão vs. Abuso de Direito: Definir onde termina a liberdade de expressão e começa o abuso de direito, especialmente em conteúdos que incitam a violência, a discriminação ou a desinformação.
  • Poder das Big Techs: Discutir o poder desproporcional que poucas empresas de tecnologia detêm sobre o fluxo de informações e o debate público.
  • Regulação e Inovação: Como criar um ambiente regulatório que proteja os usuários sem sufocar a inovação e o desenvolvimento tecnológico.
  • Responsabilidade Compartilhada: Reconhecer que a responsabilidade pela segurança online é compartilhada entre plataformas, usuários, governo e sociedade civil.

A expectativa é que a retomada do julgamento em 25 de outubro traga as diretrizes finais que guiarão a aplicação da responsabilidade civil das plataformas. Independentemente dos detalhes da tese jurídica, uma coisa é clara: a era de imunidade quase absoluta das plataformas digitais no Brasil está com os dias contados. O STF sinaliza que o ambiente online deve ser um reflexo dos valores e leis que regem a sociedade, e que a responsabilidade pela integridade desse espaço é um dever inadiável de todos os seus atores. O Brasil se alinha, assim, a uma tendência global de busca por maior equilíbrio e segurança no vasto e complexo universo da internet.