▲
- O STF decidiu que redes sociais podem ser responsabilizadas por conteúdos de usuários.
- Essa mudança exige maior moderação proativa, mesmo sem ordem judicial prévia.
- Resultados podem incluir remoção mais rápida de publicações ilegais, impactando a liberdade de expressão.
O Supremo Tribunal Federal (STF) tomou uma decisão importante que pode mudar como as redes sociais funcionam no Brasil. Na última quinta-feira (26), a Corte decidiu que essas plataformas podem, sim, ser responsabilizadas por publicações feitas pelos usuários. Essa medida julgou o Artigo 19 do Marco Civil da Internet (Lei 12.965/2014) como inconstitucional.
Até então, o Artigo 19 do Marco Civil da Internet previa que as redes sociais só seriam responsabilizadas por posts de usuários se houvesse uma ordem judicial específica para remoção. E, mesmo assim, apenas se elas não agissem após essa notificação. O texto original visava garantir a liberdade de expressão e evitar a censura na internet.
Com a decisão do STF, a regra mudou. Agora, as plataformas devem retirar conteúdos considerados ilegais do ar após uma notificação extrajudicial, sem a necessidade de um processo na justiça. Isso agiliza a remoção de posts problemáticos. Esses conteúdos incluem:
- Induzimento ao suicídio e automutilação;
- Incitação à discriminação por raça, religião, identidade de gênero, condutas homofóbicas e transfóbicas;
- Crimes contra a mulher e conteúdos que propagam ódio contra a mulher;
- Pornografia infantil;
- Tráfico de pessoas.
A exceção são os crimes contra a honra, que seguem a regra anterior. Nesses casos, a notificação judicial de remoção de conteúdo ainda é válida. Essa distinção busca equilibrar a agilidade da remoção com a proteção da reputação.
A Responsabilização das redes sociais e Seus Ajustes Necessários
A decisão no STF teve oito votos a favor e três contra. A maioria dos ministros entendeu que a regra anterior não protegia adequadamente os usuários e não promovia moderação rigorosa. Essa visão levou à necessidade de mudar o entendimento da lei sobre o tema.
Para o STF, as redes precisarão de moderação proativa. Posts ilegais deverão ser removidos mesmo sem notificação prévia. A ideia é que plataformas sejam mais ativas na identificação e remoção de materiais nocivos. Empresas de tecnologia frequentemente precisam se ajustar a novas diretrizes, como as da App Store na UE.
Entre os votos, a ministra Carmen Lúcia apontou que, desde 2014, as plataformas se tornaram “donas das informações”. Ela também destacou que seus algoritmos “não são transparentes”. Essa falta de transparência levanta preocupações sobre o funcionamento e o impacto das IAs, como as preocupações crescentes sobre a transparência das IAs.
Já o ministro Alexandre de Moraes pontuou que as big techs têm um modelo de negócio agressivo. Ele destacou que elas nem sempre respeitam as leis brasileiras. O mercado de aplicativos, como o setor de aplicativos de relacionamento, também enfrenta desafios de regulamentação.
Gilmar Mendes, por sua vez, defende que o Artigo 19 se tornou “ultrapassado”. Para ele, a nova regra não representa riscos à liberdade de expressão, mas sim um avanço necessário para a segurança online no cenário digital atual. Essa visão reforça a busca por uma internet mais segura e responsável para todos.
A Corte deixou claro que as plataformas podem responder civilmente, com base no Artigo 21 do Marco Civil da Internet. Isso ocorrerá nos casos em que não retirarem do ar conteúdos que violarem as regras. Essa medida busca garantir que a decisão seja efetivamente cumprida e que haja consequências para o descumprimento.
Antes mesmo da decisão, o Google já havia expressado preocupação. Fábio Coelho, presidente do Google Brasil, afirmou que modificações radicais na lei poderiam causar consequências no mercado digital do país. Ele acredita que o tema pode “melhorar o equilíbrio entre liberdade de expressão e responsabilização”.
Contudo, Coelho também pontuou que responsabilizar as redes antes de uma ordem judicial pode causar remoção em massa de conteúdos online. A atuação da empresa, inclusive como o Google testa funcionalidade que permite priorizar fontes de notícia, é parte de um cenário que exige atenção contínua.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.