STF forma maioria para responsabilizar redes sociais por conteúdo ilegal publicado por usuários

Brasília, Brasil – Uma decisão histórica está se desenhando no cenário jurídico brasileiro, prometendo redefinir as regras do jogo para as gigantes da tecnologia e o uso da internet no país. O Supremo Tribunal Federal (STF) formou maioria nesta quarta-feira, 11 de junho de 2025, a favor da responsabilização direta das plataformas digitais por conteúdos ilegais postados por seus usuários. Com o voto do ministro Gilmar Mendes, que se tornou o sexto a se manifestar nesse sentido, consolidou-se uma tendência de revisão do atual entendimento previsto no Marco Civil da Internet, pavimentando o caminho para mudanças profundas na forma como as redes sociais e aplicativos de mensagens são tratados juridicamente no Brasil.

Na prática, a formação dessa maioria no STF sinaliza a provável eliminação da exigência de uma decisão judicial prévia para obrigar plataformas como Facebook, Instagram, YouTube e X (antigo Twitter) a retirarem do ar conteúdos considerados ilícitos. Isso representa uma guinada substancial na regra que, desde 2014, tem limitado a responsabilização dessas empresas, protegendo-as da maioria das ações mesmo quando alertadas sobre a presença de postagens ofensivas, criminosas ou desinformativas. A mudança, se confirmada, pode inaugurar uma nova era de maior controle e responsabilidade no ambiente digital brasileiro.

Anúncio. Role para continuar lendo.

O ministro Gilmar Mendes, em seu voto, foi particularmente incisivo, criticando duramente o modelo atual, que ele considera excessivamente permissivo com as chamadas big techs. Para Mendes, o Marco Civil da Internet, embora tenha sido uma legislação vanguardista em seu tempo, acabou por oferecer um “manto de proteção desproporcional” às plataformas digitais. Segundo ele, essa proteção permitiu que crimes, discursos de ódio e desinformação prosperassem online, mesmo após inúmeras denúncias de usuários e órgãos competentes. “Mesmo informadas da ocorrência de crimes, as plataformas não podem ser responsabilizadas, a menos que haja uma ordem judicial. Isso cria um véu de irresponsabilidade”, afirmou o ministro, sublinhando a urgência de uma reinterpretação da legislação.

STF forma maioria para responsabilizar redes sociais por conteúdo ilegal publicado por usuários

Os Votos que Mudam o Cenário Digital

A maioria de votos a favor da responsabilização direta das plataformas foi construída com a contribuição de ministros de diferentes perfis e trajetórias. Além de Gilmar Mendes, já haviam votado nesse sentido:

  • Ministro Flávio Dino: Conhecido por sua atuação como ex-ministro da Justiça e segurança pública, Dino tem sido um defensor vocal de uma maior regulamentação do ambiente digital, especialmente no combate à desinformação e aos crimes cibernéticos.
  • Ministro Cristiano Zanin: Ex-advogado de Lula, Zanin tem demonstrado uma postura alinhada à necessidade de equilíbrio entre liberdade de expressão e a responsabilidade das plataformas.
  • Ministro Luiz Fux: Com uma longa carreira no judiciário, Fux tem se mostrado preocupado com os impactos das redes sociais na sociedade e na democracia, tendendo a um maior rigor na moderação de conteúdo.
  • Ministro Dias Toffoli: Ex-presidente do STF, Toffoli tem sinalizado uma visão que busca evitar a impunidade no ambiente digital, reconhecendo a capacidade de disseminação de conteúdo nocivo pelas plataformas.
  • Presidente da Corte, Luís Roberto Barroso: Líder do julgamento e um dos mais engajados no debate sobre o tema, Barroso tem enfatizado a necessidade de as plataformas assumirem um papel mais ativo na moderação e na garantia de um ambiente online seguro.

Até o momento, o único voto divergente foi o do ministro André Mendonça. Nomeado pelo ex-presidente Jair Bolsonaro, Mendonça defende a manutenção da exigência de ordem judicial para a retirada de conteúdos, argumentando que a responsabilidade direta poderia levar a um excesso de censura e prejudicar a liberdade de expressão dos usuários. Sua preocupação central reside no risco de as plataformas agirem de forma arbitrária, removendo conteúdos legítimos por precaução, a fim de evitar futuras responsabilizações.

Apesar da maioria já formada, o julgamento ainda não foi concluído, o que adiciona uma camada de suspense ao desfecho. A ministra Cármen Lúcia está ausente da sessão e o ministro Nunes Marques pediu vista – ou seja, mais tempo para analisar o caso em profundidade antes de proferir seu voto. Com isso, a definição sobre os critérios exatos de responsabilização das plataformas, e a forma como essa nova regra será aplicada, deve ocorrer nas próximas sessões da Corte, mantendo a expectativa alta entre todos os envolvidos.

O Marco Civil da Internet e a Necessidade de Atualização

O Marco Civil da Internet (Lei nº 12.965/2014) foi, em seu tempo, uma legislação inovadora e elogiada internacionalmente por estabelecer princípios, garantias, direitos e deveres para o uso da internet no Brasil. Um de seus pilares foi justamente a regra de que provedores de aplicação (as plataformas) só seriam responsabilizados por conteúdos gerados por terceiros se, após uma ordem judicial específica, não removessem o material ilegal. Essa blindagem visava proteger a liberdade de expressão e evitar que as plataformas se tornassem “polícia” da internet, removendo conteúdos indiscriminadamente.

No entanto, quase uma década após sua promulgação, o cenário digital evoluiu drasticamente. O crescimento exponencial das redes sociais, o aumento da disseminação de notícias falsas (desinformação), o discurso de ódio, as ameaças à democracia e a proliferação de crimes online (como incitação à violência, pedofilia e golpes) expuseram as fragilidades do modelo atual. Muitos argumentam que a exigência de ordem judicial prévia se tornou um obstáculo à rápida remoção de conteúdos flagrantemente ilegais, transformando as plataformas em cúmplices passivas de crimes.

A revisão desse entendimento pelo STF não significa, necessariamente, a revogação do Marco Civil, mas sim uma reinterpretação de seu artigo 19, que trata justamente da responsabilidade dos provedores de aplicação. A Corte busca um equilíbrio entre a liberdade de expressão e a necessidade de coibir abusos e ilegalidades, reconhecendo que o poder e o impacto das plataformas digitais hoje são muito maiores do que eram em 2014.

Os Argumentos pela Mudança e os Riscos da Nova Abordagem

Os ministros que votaram pela responsabilização direta baseiam-se em alguns argumentos-chave:

  • Dever de Diligência: As plataformas, por terem controle sobre seus sistemas e algoritmos, têm o dever de agir com diligência para remover conteúdos ilegais, especialmente após serem notificadas pelos usuários ou autoridades.
  • Poder Econômico: O enorme poder econômico e tecnológico das big techs as capacita a investir em ferramentas de moderação mais eficazes.
  • Impacto Social: O dano causado por conteúdos ilegais ou desinformativos é imediato e de grande escala, tornando a exigência de ordem judicial um processo lento demais para conter a disseminação.
  • Analogia com Outros Setores: Assim como empresas de outros setores são responsabilizadas por danos causados por produtos ou serviços que oferecem, as plataformas também deveriam ser por conteúdos ilegais que hospedam.

Por outro lado, os defensores do modelo atual, como o ministro André Mendonça, alertam para os riscos da responsabilização direta:

  • Censura Privada: As plataformas, temendo serem responsabilizadas, poderiam adotar uma postura excessivamente conservadora, removendo conteúdos que não são necessariamente ilegais, mas que geram controvérsia, configurando uma forma de censura privada.
  • Liberdade de Expressão: Isso poderia cercear a liberdade de expressão dos usuários, especialmente em debates políticos ou sociais, onde a crítica contundente pode ser confundida com conteúdo ofensivo.
  • Custo da Moderação: O ônus de monitorar e remover conteúdo seria imenso, especialmente para plataformas menores, o que poderia inviabilizar sua operação.
  • Arbitrariedade: A falta de um critério judicial claro para a remoção poderia levar a decisões arbitrárias pelas plataformas, sem o devido processo legal.

O Impacto Profundo no Ecossistema Digital Brasileiro

A decisão do STF é acompanhada com uma atenção redobrada por juristas, parlamentares e, claro, representantes da indústria de tecnologia. Caso o novo entendimento seja consolidado, o impacto pode ser profundo e multifacetado:

  1. Maior Responsabilidade das Plataformas: Redes sociais e aplicativos de mensagens poderão ser responsabilizados com muito mais facilidade por conteúdos ofensivos, criminosos ou desinformativos mantidos em suas plataformas. Isso pode forçá-las a investir massivamente em equipes de moderação, inteligência artificial e ferramentas de denúncia mais eficazes.
  2. Novas Políticas de Uso: As empresas provavelmente revisarão suas políticas de uso e termos de serviço para se adequar ao novo cenário jurídico, o que pode incluir regras mais rígidas sobre o que pode ou não ser postado.
  3. Risco de “Over-removal”: Existe o risco de as plataformas, para se protegerem de litígios, removerem conteúdos de forma mais proativa, o que levanta a preocupação sobre a liberdade de expressão.
  4. Crescimento de Litígios: É provável que haja um aumento no número de ações judiciais contra plataformas, à medida que usuários e vítimas buscam reparação por danos causados por conteúdos ilegais.
  5. Impacto na Desinformação: A decisão pode ser uma ferramenta poderosa no combate à desinformação, especialmente em períodos eleitorais, ao permitir que conteúdos falsos e prejudiciais sejam removidos mais rapidamente.
  6. Debate Regulatório Acelerado: O julgamento do STF certamente acelerará o debate sobre uma nova regulamentação do setor no Congresso Nacional, com projetos como o “PL das Fake News” ganhando novo fôlego. O judiciário está sinalizando que o legislativo precisa agir.

O julgamento também pode abrir espaço para uma nova regulamentação do setor, em meio a discussões mais amplas sobre a moderação de conteúdo, os limites da liberdade de expressão e o papel social das empresas de tecnologia no debate público brasileiro. A sociedade, o governo e as empresas estão diante de um momento decisivo para o futuro da internet no país. A balança entre a liberdade de expressão e a responsabilidade digital está sendo recalibrada, e o resultado final moldará a experiência de bilhões de usuários.

Os Próximos Passos e a Expectativa do Mercado e da Sociedade

Com o pedido de vista do ministro Nunes Marques e a ausência da ministra Cármen Lúcia, o desfecho definitivo do julgamento ainda levará algum tempo. No entanto, a formação da maioria já estabelece uma clara direção para a Corte. A expectativa é que, nas próximas sessões, os ministros restantes apresentem seus votos, e a modulação dos efeitos da decisão seja discutida.

Essa modulação é crucial. Ela definirá como a nova regra será aplicada: se terá efeito imediato, se haverá um período de adaptação para as plataformas, e quais serão os critérios exatos para que um conteúdo seja considerado “ilegal” sem a necessidade de uma ordem judicial prévia. A clareza nesses pontos será fundamental para evitar um cenário de insegurança jurídica e de potenciais abusos.

Para as plataformas digitais, o sinal do STF é um alerta vermelho. Elas precisarão se adaptar a um ambiente regulatório mais rigoroso, investindo em soluções tecnológicas e humanas para lidar com a moderação de conteúdo de forma mais proativa e eficiente. Para a sociedade, a decisão pode significar um ambiente online mais seguro e menos suscetível à proliferação de conteúdos nocivos, com um equilíbrio mais justo entre o direito de se expressar e o dever de não prejudicar terceiros. O Brasil está, de fato, em um divisor de águas na era digital.