O Supremo Tribunal Federal (STF) começa na próxima quarta-feira a análise de três ações que discutem as regras para redes sociais e a responsabilidade dessas plataformas pelos conteúdos publicados sob o impacto das recentes revelações sobre um plano golpista elaborado depois das eleições de 2022 e o atentado a bomba na Praça dos Três Poderes
O julgamento ocorre após a conclusão de um inquérito que apontou a existência de uma trama golpista, incluindo um núcleo voltado à desinformação e aos ataques contra o sistema eleitoral. Segundo a investigação, plataformas digitais foram utilizadas como ferramenta para promover e intensificar essa ofensiva.
A análise pelo STF já havia sido adiada duas vezes, aguardando uma possível regulamentação vinda do Congresso, que não se concretizou. Para os ministros, o cenário atual exige uma resposta clara. A Corte entende que é urgente delimitar a responsabilidade das redes sociais em casos de ameaças à democracia e à segurança institucional.
O presidente do STF, Luís Roberto Barroso, comentou sobre a importância do tema:
— Em todo o mundo democrático está se travando a discussão voltada à proteção da liberdade de expressão, sem permitir, todavia, que o mundo desabe num abismo de incivilidade que comprometa os valores democráticos e a dignidade humana.
Devido à complexidade do tema, que será abordado em três processos com relatores diferentes e diversas sustentações orais, a previsão é que o julgamento seja concluído apenas no próximo ano. Existe ainda a possibilidade de algum ministro pedir vista, o que pode prolongar o debate. Mesmo assim, o início da discussão é considerado um marco importante no esforço para regular as redes sociais em defesa dos valores democráticos.
O que estará em discussão no julgamento é o modelo de responsabilização das plataformas pelo conteúdo de terceiros — se e em quais circunstâncias as empresas podem sofrer sanções por conteúdos ilegais postados por seus usuários.
Um dos casos que geraram a discussão no Supremo chegou a partir de um recurso do Facebook. A disputa surgiu em São Paulo, quando uma dona de casa descobriu a existência de um perfil falso na rede social utilizando o nome e a imagem dela para divulgar conteúdos ofensivos. A mulher acionou a Justiça e obteve, em primeira instância, a ordem para a exclusão da página, mas não foi indenizada. Insatisfeita, recorreu da decisão e teve sucesso. A plataforma foi, então, condenada ao pagamento, e tenta reverter a punição na Corte.
Responsabilização
O STF aguardou que o Congresso avançasse com o assunto, mas o PL das Redes Sociais teve a tramitação atravancada por pressão da bancada bolsonarista — e acabou freado pelo presidente da Casa, Arthur Lira (PP-AL), que chegou a criar um grupo de trabalho para tratar do tema, mas que também não avançou. O deputado federal Orlando Silva (PCdoB-SP), relator do projeto de lei, considera que o Supremo foi “bastante cauteloso” antes de pautar as ações.
— Diante da inércia legislativa, houve um aumento nos conflitos na sociedade sem que se tenha uma regulamentação das plataformas. Isso obriga o STF a fazer uma interpretação do Marco Civil — avalia o parlamentar. — A discussão foi obstruída por um setor do parlamento, e essas mesmas pessoas que impediram a deliberação no Congresso vão apontar o dedo para o STF e acusá-lo de ativismo judicial.
Duas das ações, sob as relatorias dos ministros Luiz Fux e Dias Toffoli, tratam especificamente do artigo 19 do Marco Civil da Internet. O texto da lei prevê a “responsabilização por danos decorrentes de conteúdos gerado por terceiros” apenas em caso de a empresa não cumprir determinação judicial para a retirada do conteúdo.
A análise se dará com base em recursos de plataformas que recorrem contra condenações por conteúdos publicados. Os dois processos têm repercussão geral, o que significa que não valem apenas para os episódios específicos analisados.
Já a terceira ação, relatada por Edson Fachin, trata da possibilidade de bloqueio do aplicativo de mensagens WhatsApp por decisões judiciais. Os ministros do STF discutirão se suspender o uso do serviço ofende o direito à liberdade de expressão e comunicação e o princípio da proporcionalidade.
A ação foi apresentada pelo partido Cidadania em 2016 contra decisão judicial que determinou o bloqueio do aplicativo em todo o território nacional. Na ocasião, o motivo alegado por um juiz de primeira instância foi a recusa da empresa em fornecer o conteúdo de mensagens trocadas por alvos de investigação.
Os processos sobre o Marco Civil chegaram a ser pautados em 2023, mas foram retirados em razão de o debate sobre o projeto de regulamentação das redes sociais estar em discussão na Câmara.
As plataformas, por sua vez, dizem que já têm mecanismos robustos para remover conteúdos nocivos e ilegais. Elas afirmam agir de forma proativa e sem depender exclusivamente de ordens judiciais. Durante uma audiência pública na Corte em 2023, as big techs enfatizaram que a responsabilidade das redes sociais não deve ser excessivamente aumentada, pois isso poderia levar à censura e prejudicar a liberdade de expressão.
O entendimento que algum tipo de responsabilização das plataformas precisa ser adotado vem sendo externado pelos ministros em falas públicas e em decisões judiciais. Ao autorizar a prisão de militares suspeitos de elaborar um plano para matá-lo, na semana passada, o ministro Alexandre de Moraes destacou a ação de milícias digitais que usam as redes sociais para disseminar “fake news sobre possíveis fraudes nas eleições de 2022”.
Em evento no Mato Grosso na segunda-feira, Moraes voltou ao tema e defendeu a regulamentação das redes sociais para a volta do que chamou de “normalidade democrática no Brasil”.
— É necessária, para nós voltarmos à normalidade democrática, uma regulamentação (das redes sociais) e o fim dessa impunidade. Nunca houve nenhum setor na história da humanidade que afete muitas pessoas e que não tenha sido regulamentado — afirmou.
O ministro Gilmar Mendes, decano da Corte, também criticou a falta de uma regulamentação em um evento sobre Direito Constitucional em Brasília, no mês passado.
— Na ocasião dos atos de 8 de janeiro de 2023, há crescente conscientização de que os intermediários que viabilizaram a disseminação de conteúdos extremistas na internet não adotaram medidas mínimas para lidar com riscos sistêmicos gerados por publicações odiosas de ameaça à ordem democrática — disse.
Para o advogado Gustavo Binenbojm, professor titular da Faculdade de Direito da Universidade do Estado do Rio de Janeiro (Uerj), as medidas de autorregulação das redes sociais falharam, e é preciso que haja a proteção de valores democráticos da sociedade que estão descobertos diante do avanço das plataformas.
— Há uma exploração da fragilidade da regulação e responsabilização das redes sociais. Dez anos após a aprovação do Marco Civil, podemos constatar que o artigo 19 envelheceu muito rápido, uma vez que foi concebido quando a internet era pensada como um espaço de pluralidade. O que aconteceu é que a internet se transformou em uma praça de guerra, um lugar onde ofensas, mentiras, agressões correm livremente. O mundo todo caminhou para atualizar seu entendimento, e podemos dar esse passo — diz Binenbojm.
Com informações de O Globo.





