▲
- O STF retomou o julgamento sobre a responsabilização de plataformas digitais por conteúdos publicados por usuários.
- O objetivo é definir critérios para casos judiciais envolvendo conteúdos ofensivos ou ilícitos nas redes.
- O resultado pode alterar como as plataformas moderam conteúdos, impactando a liberdade de expressão e a segurança online.
- Ministros já divergem sobre a necessidade de notificação extrajudicial para remoção de conteúdos.
O Supremo Tribunal Federal (STF) retomou nesta quarta-feira (4) o julgamento que vai definir como deve ser a responsabilização de plataformas digitais e empresas de tecnologia por conteúdos publicados por usuários. O julgamento foi reiniciado com uma declaração do presidente da Corte, ministro Luís Roberto Barroso, que afirmou que iria esclarecer do que se trata o julgamento.
“Gostaria de breve esclarecimento, para que as pessoas possam compreender exatamente do que se trata. Há muita desinformação e muita incompreensão a respeito do que estamos fazendo”, afirmou. “Estabelecer os critérios que vão reger os casos que vão chegar ao Judiciário. É nosso dever e nada tem de invasão à competência de outros Poderes. E muito menos tem a ver com censura. Nós estamos discutindo responsabilidade civil”, prosseguiu.
Na sequência, o ministro André Mendonça começou a ler seu posicionamento na íntegra durante a sessão. Ele não concluiu a fala, e o voto dele será retomado na próxima sessão, nesta quinta-feira (5). Em dezembro de 2024, Mendonça pediu mais prazo para analisar o caso. Outros sete ministros ainda precisam votar, e não há impedimento para que ocorra um novo pedido de vista, o que suspenderia novamente o julgamento.
Nos bastidores, alguns ministros avaliam antecipar seus votos, caso haja um novo pedido de vista. A ideia é marcar posição e ajudar na construção de consenso em torno do tema. O que está em análise? Os ministros discutem dois recursos sobre a validade do Artigo 19 do Marco Civil da Internet, em vigor desde 2014. O dispositivo diz que as redes sociais e plataformas digitais só são responsabilizadas por danos causados por conteúdos ofensivos publicados por usuários se elas se negarem a obedecer a uma decisão judicial determinando a remoção do conteúdo.
Antes da suspensão pedida por Mendonça, já haviam votado os ministros Dias Toffoli, Luiz Fux e Luís Roberto Barroso, presidente da Corte. Veja o que disseram os ministros: Dias Toffoli, relator do primeiro recurso. Relator de um dos recursos, Toffoli votou pela inconstitucionalidade do artigo. O ministro defendeu que, nos casos de conteúdos ofensivos ou ilícitos, como racismo, as plataformas digitais devem agir a partir do momento que forem notificadas de forma extrajudicial, pela vítima ou seu advogado, sem necessidade de aguardar uma decisão judicial.
Leia também:
O ministro defendeu ainda que, em situações graves, as plataformas devem retirar o conteúdo mesmo sem a notificação extrajudicial. Toffoli entendeu que se as plataformas digitais deixarem de agir, devem ser responsabilizadas. Luiz Fux, relator do segundo recurso. Relator de outra ação sobre o tema, Fux também considerou que o artigo 19 do Marco Civil fere a Constituição. Da mesma maneira que Toffoli, Fux defendeu que a remoção de conteúdos considerados ofensivos ou irregulares deve ser imediata, assim que a vítima notificar a plataforma.
Para Fux, serão considerados ilícitos os conteúdos que veiculem: discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do estado democrático de direito e apologia a golpe de Estado. O ministro votou para que as plataformas sejam responsabilizadas caso não ajam após notificação extrajudicial e defendeu que as empresas criem canais para receber denúncias sob sigilo e monitorem ativamente os conteúdos publicados.
O ministro relator também rebateu o argumento de que a remoção de conteúdo ilícito pelas empresas fere a liberdade de expressão na internet. Luís Roberto Barroso. Último a votar antes da suspensão do caso, o presidente do STF, Luis Roberto Barroso, propôs que a responsabilização deve ocorrer quando as empresas deixarem de tomar providências necessárias para remover postagens com teor criminoso. Nos casos de crimes contra a honra, como de injúria, calúnia e difamação, o ministro considera que a remoção do conteúdo só deve ocorrer após ordem judicial.
Barroso também propôs que as empresas têm dever de cuidado e precisam evitar conteúdos como: pornografia infantil; instigação ou auxílio a suicídio; tráfico de pessoas; atos de terrorismo; abolição violenta do Estado Democrático de Direito; golpe de Estado.
Primeria: Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Segunda: Via G1.