Por que a regulação atual falha em conter fake news de IA nas eleições brasileiras?

Apesar das tentativas, o marco regulatório brasileiro ainda não consegue mitigar o impacto das fake news geradas por IA nas campanhas eleitorais.
Publicado dia 17/01/2026
Brasil enfrenta desafios para conter fake news de IA nas eleições e regulações atrasadas
Brasil enfrenta desafios para conter fake news de IA nas eleições e regulações atrasadas
Resumo da notícia
    • Conteúdos enganosos produzidos com inteligência artificial circulam livremente nas eleições brasileiras, sem barreiras regulatórias eficientes.
    • Você deve entender como a desinformação automatizada pode afetar seu acesso a informações verdadeiras e influenciar seu voto.
    • As limitações da legislação atual e a demora em implementar normas específicas dificultam a fiscalização e controle dessas práticas.
    • Propostas de rotulagem e transparência são debatidas para aumentar a segurança e a confiabilidade das informações durante o período eleitoral.

A discussão sobre como conter conteúdos enganosos produzidos com inteligência artificial ganhou força no Brasil às vésperas das eleições municipais e já mira o ciclo nacional seguinte. Apesar de projetos em andamento, o marco regulatório ainda não acompanha a velocidade das manipulações digitais e das novas técnicas de desinformação.

Por que as leis brasileiras ficaram para trás diante da IA generativa

O Brasil entrou na era da desinformação digital com leis pensadas para outro cenário tecnológico. O Código Eleitoral e a legislação de propaganda foram feitos para TV, rádio, impressos e, depois, redes sociais com conteúdo humano, não para sistemas que produzem texto, imagem, áudio e vídeo em escala.

A primeira camada de normas que toca o tema é o conjunto de regras da Justiça Eleitoral sobre propaganda e retirada de conteúdos falsos. Essas regras funcionam melhor quando há um emissor claro, um canal identificado e um rastro de publicação relativamente simples de seguir.

Com a inteligência artificial generativa, o cenário mudou. Qualquer pessoa com acesso a modelos abertos consegue montar vídeos de candidatos falando frases que nunca disseram, criar áudios falsos com imitação de voz e montar perfis automatizados que replicam o material em segundos.

Enquanto isso, o debate legislativo sobre regulação de IA, incluindo obrigações específicas para uso em contextos eleitorais, ainda corre em paralelo. Projetos no Congresso discutem rotulagem de conteúdo sintético e responsabilidade de plataformas, mas não há, até agora, um conjunto coeso aprovado que sirva diretamente às próximas disputas eleitorais.

Como as fake news de IA circulam nas eleições Brasil sem barreiras claras

Uma das maiores fragilidades atuais é a combinação de mensageria privada com conteúdos sintéticos. Vídeos gerados com IA, áudios clonados e imagens fabricadas circulam em grupos fechados de aplicativos populares, onde a fiscalização institucional é limitada e a identificação da origem é quase impossível.

Mesmo quando o Tribunal Superior Eleitoral determina a remoção de um conteúdo em uma rede social aberta, cópias já foram baixadas e reenviadas em canais privados ou republicadas com pequenas alterações, burlando o link original alvo da decisão.

Além disso, a própria cultura de consumo rápido de conteúdo impulsiona esse tipo de material. Em eleições recentes, o Brasil já lidou com boatos sobre urnas eletrônicas e suspeitas infundadas sobre o sistema de votação, fenômeno que hoje se combina com técnicas de edição avançada e ferramentas acessíveis para qualquer usuário.

Esse ambiente se soma a um quadro mais amplo de desafios na segurança digital brasileira, que inclui vazamentos de dados em grande escala e investimentos ainda abaixo do necessário em infraestrutura de proteção, como já se observa em debates sobre cibersegurança nacional e falhas em bancos de dados públicos, a exemplo das discussões em torno de grandes vazamentos de CPFs em estados brasileiros.

Onde o marco regulatório brasileiro tenta agir – e onde não alcança

Hoje, o Brasil aposta em uma combinação de instrumentos: legislação eleitoral, regras de proteção de dados, normas de direitos autorais, resoluções do TSE e políticas internas de plataformas. Essa colcha de retalhos traz brechas importantes quando o assunto é desinformação automatizada.

A Lei Geral de Proteção de Dados trata do uso de informações pessoais para fins de perfilamento político, mas não regula diretamente o uso de ferramentas de IA para fabricar narrativas falsas sem base em dados reais de eleitores. Já a legislação eleitoral se concentra no conteúdo da mensagem, e não na tecnologia por trás da produção.

As plataformas, por sua vez, criam regras próprias para rotular ou remover conteúdo enganoso, mas a aplicação é desigual entre redes e muitas vezes reativa, entrando em ação depois que o material já viralizou. Em ciclos eleitorais curtos, algumas horas bastam para consolidar uma percepção equivocada.

Esse desenho regulatório lembra outros casos em que as normas brasileiras chegaram depois de problemas tecnológicos já estabelecidos, como ocorreu com debates sobre segurança de carregadores portáteis, uso de câmeras escondidas e proteção de vítimas em ambientes digitais, tratados em diferentes frentes legislativas sem sempre convergir em uma política única.

Deepfakes, áudios clonados e chatbots políticos: novas ferramentas, velhas brechas

A principal novidade no cenário recente é o salto de qualidade e acessibilidade das ferramentas de inteligência artificial generativa. O que antes exigia conhecimento técnico especializado hoje está disponível em interfaces simples, tanto em serviços internacionais quanto em aplicativos populares de edição.

Vídeos de rosto e voz clonados permitem criar falas atribuídas a candidatos, autoridades eleitorais ou figuras públicas, com aparência de autenticidade para quem recebe o conteúdo em contextos de confiança, como grupos de família ou de bairro. Isso torna o desmentido institucional mais difícil.

Além das imagens e áudios falsos, surgem chatbots e assistentes automatizados que simulam militantes ou atendentes de campanha, respondendo dúvidas de eleitores com mensagens enviesadas, descontextualizadas ou claramente enganosas, sem indicar que se trata de sistemas automatizados.

Essas práticas se conectam a um cenário em que o Brasil vê a popularização acelerada de aplicativos de IA em diversos setores, inclusive educação e consumo, enquanto ainda discute limites éticos, riscos a grupos vulneráveis e os efeitos de decisões automáticas no cotidiano, como mostram debates sobre uso de tecnologias em escolas, varejo e saúde.

Responsabilidade das plataformas e o dilema do tempo eleitoral

Uma das discussões centrais é a responsabilidade de redes sociais, serviços de vídeo e aplicativos de mensagens sobre conteúdos falsos produzidos ou amplificados com IA. As regras variam globalmente e os provedores ajustam políticas conforme pressão de reguladores e opinião pública.

No Brasil, a Justiça Eleitoral já firmou acordos de cooperação com grandes plataformas para agilizar a retirada de conteúdos ilegais em períodos de campanha. Porém, a lógica da inteligência artificial adiciona uma camada de complexidade: o mesmo modelo que gera imagens para um uso legítimo também é capaz de produzir peças enganosas em massa.

Outro ponto sensível é o tempo de resposta. Em campanhas intensas, um vídeo falso pode circular por milhões de pessoas antes de qualquer remoção coordenada, especialmente quando migra para canais menos visíveis. Mesmo quando a remoção acontece, a narrativa já foi assimilada por parte do público.

Esse dilema lembra discussões em outras áreas reguladas pela tecnologia, como o mercado de criptomoedas e a circulação de conteúdos sensíveis em plataformas sociais, onde o país ainda adapta sua legislação para acompanhar mudanças rápidas no comportamento digital.

Propostas em debate para frear fake news de IA em eleições brasileiras

Nos últimos anos, foram apresentados projetos que tentam lidar com desinformação, automação de contas e uso de IA em processos eleitorais. Entre as ideias em discussão, aparecem medidas como rotulagem obrigatória de conteúdos sintéticos, transparência de algoritmos de recomendação e exigência de identificação clara de mensagens impulsionadas.

Há também propostas para responsabilizar campanhas e partidos que utilizem ou contratem serviços de produção de conteúdo falso com auxílio de IA, ampliando sanções já previstas para propaganda irregular e abuso de poder econômico.

Outra linha de debate envolve a criação de mecanismos específicos de auditoria em campanhas de publicidade digital segmentada, principalmente quando cruzam dados sensíveis de eleitores com mensagens geradas automaticamente, algo que dialoga com preocupações mais amplas sobre privacidade e governança de dados.

Paralelamente, o Brasil discute como formar profissionais em IA em larga escala até 2030, o que inclui criar competências técnicas e éticas para lidar com esse tipo de uso político da tecnologia e desenhar políticas públicas capazes de equilibrar inovação e proteção democrática.

Educação midiática e transparência tecnológica como linha de defesa

Especialistas apontam que, mesmo com leis mais robustas, a checagem cidadã permanece essencial. À medida que a diferença entre um vídeo verdadeiro e um falso fica menos evidente, a capacidade do eleitor de desconfiar do conteúdo recebido torna-se parte da proteção do processo eleitoral.

Programas de educação midiática, checagem colaborativa e campanhas informativas sobre o reconhecimento de manipulações digitais ganham relevância. A ideia é oferecer repertório para identificar montagens, distorções e sinais de automatização em conversas políticas online.

Do lado das empresas de tecnologia, cresce a discussão sobre transparência em modelos de IA usados em campanhas de comunicação, inclusive políticos. Isso inclui desde marcações visíveis em conteúdos gerados artificialmente até documentação técnica acessível para autoridades e pesquisadores.

Esse tipo de transparência já aparece em debates mais amplos sobre a relação entre gigantes da tecnologia e o ecossistema digital brasileiro, incluindo discussões sobre abertura de código, segurança digital e o papel de grandes plataformas em setores como varejo e serviços financeiros.

Desafios para as próximas eleições e possíveis caminhos

O cenário para os próximos ciclos eleitorais no Brasil coloca pressão sobre reguladores, campanhas, plataformas e sociedade. A tendência é que o volume e a sofisticação de conteúdos manipulados com IA cresçam, inclusive em disputas locais e regionais, onde a fiscalização é mais difícil.

Do lado jurídico, há expectativa de ajustes regulatórios antes das próximas grandes eleições nacionais, seja por via legislativa, seja por resoluções da Justiça Eleitoral. Esses ajustes precisarão dialogar com o desenvolvimento de tecnologias emergentes e com experiências recentes de outros países.

Na prática, o desafio vai além das normas escritas. Envolve infraestrutura técnica para monitorar, identificar e reagir rapidamente a fluxos coordenados de desinformação, em um contexto em que o Brasil ainda discute investimentos em cibersegurança e prioridades de tecnologia pública.

Ao mesmo tempo, cresce a necessidade de integrar essa discussão a um quadro mais amplo de governança digital, que inclui privacidade, responsabilidade de plataformas, proteção contra vazamentos de dados e estratégias para lidar com novos usos da IA na vida cotidiana dos brasileiros.

No centro desse debate está a tentativa de equilibrar liberdade de expressão, participação política e integridade do voto com um cenário tecnológico em transformação acelerada. O resultado dessas escolhas regulatórias nos próximos anos deve influenciar não apenas o clima das campanhas, mas a forma como o país enxerga a relação entre tecnologia e democracia.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.