Big techs e avanços da IA dificultam monitoramento de desinformação nas eleições, diz grupo ligado ao TSE

Especialistas alertam que mudanças nas plataformas e falta de transparência tornam monitoramento mais difícil no próximo pleito

O avanço acelerado da inteligência artificial, combinado a uma mudança de postura política das grandes plataformas digitais, deve tornar a desinformação nas eleições de 2026 um desafio ainda maior do que em disputas anteriores. A avaliação é de organizações que integram o Programa Permanente de Enfrentamento à Desinformação, criado em 2021 pelo Tribunal Superior Eleitoral.

Segundo especialistas ouvidos pela Folha de S. Paulo, empresas de tecnologia vêm reduzindo mecanismos de transparência, alterando políticas internas em sintonia com posições defendidas pelo governo de Donald Trump e atuando para barrar regulações que imponham obrigações mais rígidas às plataformas. Essas mudanças, apontam os parceiros do TSE, têm impacto direto sobre a capacidade de monitorar a circulação de conteúdos enganosos nas redes sociais.

Procuradas pela reportagem, as empresas Meta, Google e X (antigo Twitter) não se manifestaram.

Mudança de postura das plataformas

Em janeiro de 2025, o CEO da Meta, Mark Zuckerberg, publicou um vídeo no qual afirmou que buscaria aproximação com o governo dos Estados Unidos para resistir a iniciativas de regulação das redes sociais e ao que classificou como censura. Na gravação, disse ainda que existiriam “tribunais secretos” em “países da América Latina” que estariam ordenando que “empresas removam conteúdos de forma silenciosa”.

A relação entre plataformas e Justiça Eleitoral já havia se mostrado tensa nas eleições municipais de 2024. Naquele pleito, a Justiça determinou que as redes mantivessem um repositório de anúncios políticos, com informações como valores investidos e alcance das campanhas. Diante da exigência, Google e X anunciaram a proibição do impulsionamento de conteúdo político, alegando dificuldades técnicas para cumprir a norma. Posteriormente, reportagem da Folha revelou que o Google descumpriu a própria decisão e manteve a veiculação de anúncios sem atender às regras de transparência estabelecidas.

Ferramentas encerradas e acesso restrito a dados

Para a pesquisadora Débora Salles, coordenadora geral de pesquisa no Netlab, laboratório vinculado à Universidade Federal do Rio de Janeiro, o encerramento de ferramentas de transparência representa um retrocesso significativo para o acompanhamento da desinformação. Um dos exemplos citados é o fim do CrowdTangle, ferramenta desativada pela Meta em 2024 que permitia analisar conteúdos amplamente compartilhados nas redes da empresa.

O recurso foi substituído pela Meta Content Library, considerada pela pesquisadora uma alternativa “bem pior”, por dificultar o acesso de pesquisadores independentes e jornalistas, além de restringir a extração e exportação de dados.

No caso do X, o encerramento do acesso gratuito à API também afetou estudos acadêmicos e iniciativas de monitoramento. A ferramenta permitia que terceiros se conectassem à plataforma para coletar dados públicos. Atualmente, o acesso é pago, com custo mensal estimado em US$ 215, o equivalente a mais de R$ 1.100.

“É cada vez mais difícil conseguir coletar dados sobre publicações e comentários das plataformas, ainda que sejam públicos”, afirma Heloisa Massaro, diretora do InternetLab.

Luis Fakhouri, cofundador da Palver, avalia que o cenário se agrava quando a própria diretriz das empresas não prioriza o enfrentamento à desinformação. Segundo ele, se a política interna da plataforma “não está alinhada com algum tipo de enfrentamento à desinformação, fica muito difícil criar mecanismos externos”.

“A gente está muito desarmado”, resume o professor Marco Ruediger, diretor da Escola de Comunicação, Mídia e Informação da Fundação Getúlio Vargas. Para ele, a mudança de política das plataformas deve tornar o combate à desinformação em 2026 mais complexo do que em outros ciclos eleitorais.

Inteligência artificial como novo vetor de risco

Além das restrições impostas pelas plataformas, os especialistas apontam a inteligência artificial como um fator adicional de preocupação. Massaro observa que não há transparência suficiente sobre os critérios utilizados por modelos generativos, como o ChatGPT, quando citam candidatos ou temas políticos em respostas a eleitores.

Débora Salles acrescenta que ferramentas de IA permitem a produção de conteúdos com aparência profissional a baixo custo, o que pode ampliar a atuação de novos atores interessados em “influenciar o debate” por meio de informações falsas ou manipuladas.

Embora o TSE determine que toda postagem produzida com uso de inteligência artificial seja identificada como tal, a coordenadora do Netlab avalia que a fiscalização ainda é limitada, o que dificulta a aplicação efetiva da regra.

Marco Civil e limites da responsabilização

O julgamento do artigo 19 do Marco Civil da Internet pelo Supremo Tribunal Federal ampliou a possibilidade de responsabilização das plataformas digitais. No entanto, o Supremo estabeleceu uma ressalva para conteúdos eleitorais, que continuam sob a competência da Justiça Eleitoral.

Mesmo assim, Massaro ressalta que o Marco Civil pode ter impacto indireto sobre o processo eleitoral, especialmente em “discussões que não são explicitamente eleitorais e que não vão entrar necessariamente no escopo da Justiça Eleitoral, mas que podem influenciar o ecossistema de debate público”.

Ruediger destaca que, em um ambiente com pouca transparência, permanece a dificuldade de responsabilizar as plataformas, já que se torna mais complexo “caracterizar claramente que alguma coisa está acontecendo com a aquiescência ou omissão” das empresas.

Papel do TSE em 2026

As organizações ouvidas ainda não sabem se serão convidadas a atuar formalmente no enfrentamento à desinformação nas eleições de 2026. Até o momento, com exceção da Palver, que envia relatórios semanais ao TSE sobre questionamentos ao sistema eleitoral, as demais entidades afirmam não manter contato com o tribunal.

Durante o pleito, o TSE será presidido pelo ministro Kássio Nunes Marques, indicado ao STF por Jair Bolsonaro em 2020. Caberá a ele definir as prioridades da Justiça Eleitoral ao longo do processo.

Em 19 de janeiro, o tribunal divulgou a primeira versão das resoluções que irão orientar as eleições. A minuta sobre publicidade eleitoral prevê a proibição de “deepfakes” e de conteúdos “fabricados ou manipulados” para disseminar mentiras. As normas ainda estão em fase de elaboração e serão submetidas à votação dos ministros.

Deixe um comentário

Mais recentes

Descubra mais sobre Agenda do Poder

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading