A regulação de redes sociais é um tema que gera debates acalorados. A Advocacia-Geral da União (AGU) encerrou consulta pública sobre moderação de conteúdo em redes sociais, recebendo 87 contribuições. A maioria defendeu medidas contra desinformação e conteúdos ilícitos.
A Consulta Pública da AGU sobre Regulação de Redes Sociais
A AGU promoveu uma audiência pública e uma Tomada de Subsídios por 11 dias na plataforma Participa + Brasil. Isso complementou as contribuições já enviadas ao Supremo Tribunal Federal (STF). O objetivo era analisar o Artigo 19 do Marco Civil da Internet, que trata da responsabilidade dos provedores por conteúdo gerado por usuários.
Este artigo estipula que provedores só são responsabilizados por danos se, após ordem judicial, não excluírem postagens infringentes. A lei visa assegurar a liberdade de expressão e impedir a censura. No entanto, o debate se concentra na possível aplicação inadequada da regra em casos que não envolvem liberdade de expressão, afetando outros direitos fundamentais.
A AGU já havia manifestado que plataformas deveriam remover conteúdos ilícitos sem ordem judicial. Mas, após a Meta questionar os impactos da checagem de fatos nos EUA, levantando preocupações com “censura”, a AGU reabriu a consulta. A Meta já esclareceu que o programa de verificação de fatos e filtragem não será descontinuado no Brasil, apesar de algumas flexibilizações em suas políticas.
Opiniões Divergentes sobre a Regulação de Redes Sociais
Representantes de organizações jornalísticas sem fins lucrativos temem aumento de violações de direitos com a redução da moderação. A Aos Fatos, por exemplo, afirma que a Meta não apresentou evidências de erros no trabalho dos verificadores de fatos e apontou que a nova política permitiria conteúdos criminosos, como expressões de supremacia racial e preconceito religioso.
Leia também:
A Agência Pública de Jornalismo Investigativo reforça essa preocupação, considerando a moderação baseada na lei brasileira uma questão de soberania nacional. A Repórteres Sem Fronteiras (RSF) destacou dados sobre agressões a jornalistas mulheres e LGBTQIA+ online, apontando riscos para profissionais de imprensa.
A RSF menciona um levantamento da Associação Brasileira de Jornalismo Investigativo (Abraji) mostrando que mulheres foram alvos de 61 violações à liberdade de imprensa em 2020 (17% do total). Essas contribuições demonstram uma preocupação com a regulação de redes sociais e seus impactos na sociedade.
Visão do Setor de Tecnologia e Telecomunicações
A Associação Brasileira de Provedores de Internet e Telecomunicações (Abrint) destacou que o Marco Civil da Internet não impede a moderação de conteúdo pelos provedores, citando a remoção de imagens íntimas como exemplo. A Abrint defende propostas para punir conteúdos ilícitos e a harmonização entre transparência, normas de privacidade e proteção de dados pessoais.
A associação também considera fundamental a publicação de dados sobre pedidos de moderação feitos por autoridades, para promover a transparência e a accountability. A Associação Brasileira de Emissoras de Rádio e Televisão (Abert) afirma que a moderação de conteúdo criminoso não é censura. A Abert defende a atuação proativa das plataformas para remover conteúdos ilícitos, incluindo racismo, terrorismo e outros crimes.
A Ausência das Big Techs no Debate da Regulação de Redes Sociais
A audiência pública da AGU ocorreu sem representantes das plataformas digitais, que recusaram o convite. As empresas também não contribuíram publicamente para a consulta. A Meta, porém, informou ao STF que removeu 208 milhões de postagens relacionadas a pedofilia, violência e discurso de ódio em 2023, afirmando investimentos bilionários em tecnologia.
A empresa também disse que mais de 98% das notificações por perfil falso são removidas automaticamente. Esses dados foram apresentados antes do anúncio de mudanças na moderação de conteúdo. Em resposta à AGU, a Meta esclareceu o encerramento do programa de verificação de fatos nos EUA, para testes de “Notas da Comunidade” antes de expansão para outros países.
A empresa também garantiu a continuação da remoção de conteúdos que incitam violência e desinformação que cause risco iminente de lesão corporal ou interfira em processos políticos. Os comentários contrários à regulação vieram principalmente de pessoas físicas, preocupadas com a liberdade de expressão.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Mobile Time