Por que as atuais políticas públicas brasileiras falham no combate às fake news com IA

Apesar dos esforços governamentais, as fake news continuam a desafiar a eficácia das regulamentações no Brasil.
Publicado dia 17/01/2026
Desafios da inteligência artificial no combate às fake news nas eleições brasileiras
Desafios da inteligência artificial no combate às fake news nas eleições brasileiras
Resumo da notícia
    • A inteligência artificial tem sido usada para criar e espalhar fake news em grande escala durante as eleições no Brasil.
    • Você precisa estar atento às manipulações digitais que usam IA para criar conteúdos falsos com realismo visual e sonoro.
    • Essa realidade pressiona o sistema regulatório e as políticas públicas, que ainda não acompanham a velocidade dessas manipulações.
    • A falta de coordenação entre plataformas, Estado e sociedade civil dificulta o combate eficiente à desinformação automatizada.

O uso de inteligência artificial na produção e distribuição de fake news já faz parte do cotidiano brasileiro, especialmente em períodos eleitorais. Mesmo com novas leis, projetos em debate no Congresso e ações do TSE e do STF, especialistas apontam que as atuais políticas públicas e a frágil regulação no Brasil ainda não acompanham a velocidade nem a escala dessas manipulações digitais.

Por que o problema com IA é diferente do boato tradicional

Quando boatos circulavam em correntes de mensagens ou conversas de bar, o alcance era limitado. Com IA generativa, uma pessoa consegue produzir milhares de textos, áudios e vídeos em minutos, simulando fontes confiáveis, sotaques regionais e até o rosto de figuras públicas.

Ferramentas de deepfake permitem criar discursos falsos de autoridades, candidatos e celebridades com realismo visual e sonoro. Em disputas acirradas, isso abre espaço para manipulação emocional rápida, antes que checagens jornalísticas ou desmentidos oficiais ganhem alcance.

Além disso, sistemas de recomendação de grandes plataformas, treinados para maximizar engajamento, tendem a priorizar conteúdo sensacionalista, o que favorece desinformação altamente polarizada. Essa dinâmica se conecta a debates mais amplos sobre como grandes empresas de tecnologia lidam com código-fonte, dados e segurança, tema já discutido em contextos como este sobre estratégias de Apple, Samsung e Google em código-fonte: como a estratégia da Apple, Samsung e Google sobre código-fonte pode redefinir a segurança digital no Brasil.

Esse cenário torna o combate às notícias falsas com IA menos sobre apagar posts individuais e mais sobre entender a arquitetura dos sistemas de recomendação, monetização e automação que impulsionam tais conteúdos.

Leia também:

Leis existentes, projetos em debate e o que fica de fora

Hoje, o Brasil já conta com o Marco Civil da Internet, a Lei Geral de Proteção de Dados (LGPD), normas eleitorais do TSE e decisões recentes do STF que reforçam o poder do Judiciário sobre plataformas em casos de desinformação organizada.

Ao mesmo tempo, o Congresso discute projetos específicos sobre plataformas digitais e regulação de IA, com foco em responsabilidade, transparência de algoritmos e dever de moderação em casos de abuso. Porém, boa parte desses textos ainda mira problemas clássicos de redes sociais, sem detalhar peculiaridades de modelos generativos.

As propostas costumam tratar de remoção de conteúdo, guarda de registros, dever de resposta a ordens judiciais e regras de impulsionamento pago. Já a exigência de rotulagem clara para conteúdos criados por IA, auditoria pública de modelos ou limites ao uso de dados de cidadãos brasileiros em sistemas estrangeiros ainda avança de forma fragmentada.

Especialistas em direito digital também chamam atenção para lacunas relacionadas à responsabilidade em contextos sensíveis, como saúde, educação e finanças, segmentos que já vêm recebendo ferramentas baseadas em IA em ritmo intenso no país.

Eleições brasileiras: quando a urgência expõe falhas da regulação

É nas eleições que as fragilidades das atuais regras aparecem com mais clareza. O TSE vem atualizando resoluções para tentar acompanhar a IA generativa, incluindo normas para punir impulsionamento irregular, redes coordenadas de desinformação e uso abusivo de bots.

Ainda assim, há brechas importantes. Uma delas está na dificuldade de rastrear a origem de conteúdos manipulados quando são produzidos fora do país ou hospedados em serviços pouco cooperativos. Outra envolve grupos fechados e criptografados, onde a fiscalização é limitada por desenho técnico.

Além disso, mesmo quando o TSE consegue derrubar publicações em grande escala, versões levemente alteradas do material surgem em novos perfis e plataformas. Isso mostra que respostas baseadas apenas em remoção pontual tendem a ser sempre reativas e atrasadas.

Esse debate já foi aprofundado em análises específicas sobre eleições e desinformação com IA, como neste foco sobre falhas regulatórias em campanhas eleitorais brasileiras: por que a regulação atual falha em conter fake news de IA nas eleições brasileiras?.

Plataformas, Estado e a disputa pela responsabilidade

Uma das principais razões para o insucesso das políticas atuais está na disputa contínua sobre quem deve responder pelos danos: plataformas, usuários, campanhas políticas, produtores anônimos ou o próprio Estado, quando falha em prevenir ataques coordenados.

As empresas de tecnologia alegam que já investem em moderação, rotulagem e ferramentas de denúncia, mas resistem a assumir responsabilidades mais amplas por conteúdos gerados por terceiros. Já autoridades brasileiras pressionam por respostas mais rápidas, especialmente em contextos de risco à integridade do processo eleitoral.

No meio dessa disputa, a sociedade civil e organizações de checagem de fatos acabam apostando em iniciativas próprias de monitoramento, educação midiática e transparência, porém com recursos limitados em comparação à escala de produção de desinformação automatizada.

Esse desequilíbrio se parece com o que ocorre em outras frentes de segurança digital no país, onde vazamentos massivos de dados expõem limites estruturais de proteção e governança, como já se viu em episódios de exposição de milhões de CPFs em bases governamentais estaduais: por que o vazamento de 9 milhões de CPFs em Pernambuco expõe falhas na segurança digital do Brasil?.

Educação digital, escolas e a formação de um público mais crítico

Outro ponto em que as políticas públicas esbarram é na educação. Programas de inclusão digital foram, por anos, focados principalmente em acesso a dispositivos e conexão, deixando em segundo plano a formação crítica para avaliar a qualidade das informações consumidas online.

Com a chegada de ferramentas de IA em salas de aula e no cotidiano de estudantes, surgem desafios adicionais. Professores, redes de ensino e famílias precisam lidar, ao mesmo tempo, com novas possibilidades pedagógicas e com a disseminação de conteúdos enganosos personalizados por algoritmos.

Sem diretrizes claras, escolas podem adotar soluções de IA que não explicam suas fontes, nem distinguem fatos de opiniões, estimulando uso superficial das ferramentas. Isso afeta a capacidade de jovens de identificar manipulações, montagens e discursos fabricados em grande escala.

Esse cenário se conecta a debates já levantados sobre riscos e benefícios da IA nas escolas brasileiras, discutidos em análises específicas sobre ambiente educacional e tecnologia em sala de aula: IA nas escolas brasileiras: riscos superam os benefícios em sala de aula?.

Segurança, dados e o papel da infraestrutura digital brasileira

Enquanto a discussão pública se concentra em redes sociais, há uma camada menos visível, mas essencial, relacionada à infraestrutura tecnológica. Data centers, provedores de nuvem, empresas de telecom e órgãos públicos operam sistemas que podem ser alvo de ataques ou usados para treinamento de modelos de IA.

Quando bases de dados sensíveis são comprometidas, não se trata apenas de risco financeiro ou de privacidade; tais informações podem alimentar campanhas de desinformação hipersegmentadas, com mensagens adaptadas a perfis específicos de eleitores.

Investimentos anunciados em cibersegurança, tanto públicos quanto privados, ainda são considerados abaixo do necessário por especialistas. Isso inclui desde a proteção de serviços críticos até a capacidade de detectar operações coordenadas que usam IA para testar brechas, distribuir golpes e escalar boatos.

O tema tem aparecido em discussões sobre o volume de recursos destinados à proteção digital no país, como em análises que questionam se aportes bilionários são suficientes para elevar o patamar de defesa nacional em ambiente de ameaças crescentes: Brasil investe menos que esperado em cibersegurança nacional: faltam R$ 3 bi até 2025?.

Crimes digitais, lacunas legais e a sensação de impunidade

Além da esfera eleitoral, as atuais políticas públicas também têm dificuldades em lidar com a desinformação ligada a golpes financeiros, saúde, segurança pública e pautas morais. Muitas vezes, esses conteúdos se misturam com crimes como estelionato, extorsão e ameaças.

Modelos de IA usados por criminosos conseguem imitar vozes de familiares, reproduzir documentos e criar prints falsos de conversas, o que dificulta a investigação e o reconhecimento do engano por parte da vítima. A legislação nem sempre acompanha essas variações técnicas.

Autoridades policiais, promotores e juízes precisam interpretar leis gerais para enquadrar condutas que mudam rapidamente, enquanto grupos criminosos exploram a sensação de baixa chance de identificação. Em vários casos, a fronteira entre opinião, discurso político duro e desinformação maliciosa continua difícil de definir juridicamente.

Em paralelo, surgem discussões sobre atualização de marcos legais para outros tipos de tecnologia emergente, como dispositivos de vigilância, câmeras e sensores, mostrando que a lacuna entre avanço técnico e normas não é exclusividade da IA generativa: por que a legislação brasileira sobre câmeras escondidas está desatualizada diante dos avanços tecnológicos?.

O que especialistas apontam como caminhos possíveis

Pesquisadores de direito digital, ciência da computação e comunicação social vêm sugerindo ajustes em diferentes camadas. Um dos pontos mais citados é a necessidade de regras claras para transparência: rótulos visíveis em conteúdos gerados por IA, abertura de dados sobre moderação e políticas mais detalhadas de anúncio.

Outra linha de proposta envolve a criação de obrigações específicas para campanhas políticas e agentes públicos, incluindo registros de uso de IA em propagandas, limites a chatbots que simulem atendimento humano em nome de candidatos e rastreabilidade mínima de materiais audiovisuais.

Na esfera educacional, a recomendação é de políticas coordenadas entre ministérios, conselhos de educação e redes de ensino para incluir alfabetização midiática, uso responsável de IA e treino de reconhecimento de desinformação, com materiais adaptados às diferentes faixas etárias.

Por fim, há sugestão de reforçar estruturas de cibersegurança e proteção de dados em órgãos públicos, evitando que bases sensíveis sirvam de combustível para campanhas de manipulação personalizadas e ataques à confiança em instituições.

Por que a discussão sobre IA e fake news não deve ficar restrita ao período eleitoral

Embora as eleições concentrem a atenção, o problema da desinformação com IA afeta o cotidiano muito além das urnas. Notícias falsas sobre saúde, clima, segurança e economia circulam de forma contínua, influenciando decisões pessoais e debates públicos.

Se as políticas públicas brasileiras forem planejadas apenas como resposta emergencial a crises momentâneas, a tendência é que fiquem sempre um passo atrás de novas técnicas e ferramentas. A lógica da IA generativa é de atualização constante, com modelos sendo treinados e retrabalhados sem aviso ao público.

Tratar o tema como questão de longo prazo implica pensar em infraestrutura, educação, transparência corporativa, processos judiciais mais ágeis e cooperação internacional. Isso demanda coordenação entre diferentes órgãos federais, estados, municípios e também entre poderes.

Enquanto esse alinhamento não acontece de forma consistente, a combinação de ferramentas de IA acessíveis, modelos de negócio baseados em engajamento e tensões políticas persistentes tende a manter o ambiente fértil para novas ondas de desinformação, com impactos que vão além de um ciclo eleitoral específico.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.