Rússia manipula dados de IA com narrativas falsas, alertam especialistas

Especialistas alertam que a Rússia está alimentando IA com informações falsas para influenciar debates globais e eleições através de campanhas de manipulação de informações.
Atualizado há 4 dias atrás
Rússia manipula dados de IA com narrativas falsas, alertam especialistas
Rússia usa IA para espalhar desinformação e influenciar eleições globais. (Imagem/Reprodução: Tecmundo)
Resumo da notícia
    • A Rússia tem alimentado IA com informações falsas para influenciar debates globais.
    • O objetivo é manipular opiniões sobre eleições, guerra na Ucrânia e imigração.
    • Campanhas de manipulação, como ‘Operação Sobrecarga’, utilizam lavagem de informações em massa.
    • Uso da Wikipedia e links para redes sociais facilita a disseminação de desinformação.
    • Manipulação de conteúdo aumenta risco de interferências russas em eleições estrangeiras.
CONTINUA DEPOIS DA PUBLICIDADE

A Rússia tem sido apontada por alimentar bots de inteligência artificial com informações falsas. O objetivo é influenciar debates globais sobre temas como eleições, a guerra da Ucrânia e imigração. Essas suspeitas ganharam destaque novamente após uma reportagem da Wired, que apontou uma campanha de manipulação ativa desde 2023.

Essa campanha, conhecida por nomes como “Operação Sobrecarga”, “Matryoshka” e “Tempestade-1679”, utiliza um método chamado “lavagem de informações”. Essa técnica facilita a divulgação em massa de conteúdos favoráveis ao governo de Vladimir Putin. Parte dessa estratégia envolve o uso da Wikipedia para espalhar desinformação.

CONTINUA DEPOIS DA PUBLICIDADE

Uma publicação compartilhada por ABC News (@abcnews_au)

Como Funciona a Lavagem de Informações

Uma investigação do The Washington Post revelou como os conteúdos pró-Rússia são publicados. Eles aparecem primeiro em fontes oficiais do país, como a agência Tass. Depois, são replicados em sites independentes, que chegam a fazer milhares de publicações automatizadas diariamente.

  • A rede de sites Pravda, lançada em 2014 e presente em dezenas de países, é apontada como uma das principais divulgadoras desses materiais.
  • Mesmo com poucos visitantes humanos, a plataforma cria conteúdos otimizados para rastreadores. Esses programas varrem a web em busca de dados para alimentar modelos de linguagem.
  • Os materiais também são encontrados pelos bots com capacidade de pesquisar na web em tempo real, podendo influenciar as respostas dadas ao usuário.
  • Para ampliar a visibilidade desses conteúdos, links da rede são adicionados à Wikipedia e ao Facebook, consideradas fontes precisas por algumas IAs.
  • Em uma estratégia ousada, a campanha russa envia e-mails para organizações de checagem de fatos, solicitando que elas verifiquem a veracidade dos materiais.
  • O objetivo é que o conteúdo seja publicado por grandes veículos de comunicação mesmo que sinalizado como falso, para facilitar a indexação.
  • Pelo menos 170 mil e-mails desse tipo foram disparados desde setembro de 2024, conforme estudo publicado em junho.

A lavagem de informações é uma forma de driblar as sanções aplicadas aos meios de comunicação russos em vários países. Isso permite que os conteúdos cheguem a outros mercados. Além disso, essa estratégia leva a outra abordagem, chamada “aliciamento LLM”, que se refere aos modelos de linguagem.

De acordo com a organização sem fins lucrativos American Sunlight Project (ASP), essa técnica aumenta a probabilidade de os grandes modelos de IA absorverem e passarem a divulgar as narrativas falsas. Isso acontece à medida que os conteúdos manipulados aparecem no material indexado e nos resultados das buscas realizadas por IAs. Isso é um desafio para as plataformas de IA que se adaptam sem retreinamento.

ilustracao-de-bot-exibindo-cartaz-de-fake-news
Com o acesso às narrativas falsas, as IAs podem passar a citar as fake news em suas respostas. (Imagem: Getty Images)

As Consequências da Alimentação de IAs

A manipulação dos conteúdos para treinar IAs aumenta a exposição dos usuários de bots populares a informações pró-Putin e contrárias à Ucrânia. Isso é especialmente relevante em ferramentas de inteligência artificial generativa que coletam dados de fontes como a Wikipedia.

CONTINUA DEPOIS DA PUBLICIDADE

O método também pode facilitar interferências da Rússia em processos eleitorais de diferentes países. Uma investigação feita pelo canal ABC News aponta que isso ocorreu durante as eleições federais da Austrália em maio. Na ocasião, 16,6% das respostas dadas pelos bots consultados refletiam narrativas falsas propagadas pelo Kremlin.

Valentin Châtelet, pesquisador de segurança do Atlantic Council, que investigou a prática, fez um alerta importante. Ele destacou que, à medida que os chatbots de IA continuam avançando, a Rússia os “infecta” com conteúdo manipulado. O objetivo é influenciar a internet global, distorcendo a compreensão do público sobre os fatos e a capacidade de tomar decisões bem informadas.

Para lidar com o problema, especialistas sugerem parcerias entre as empresas de IA e plataformas de verificação de fatos. O objetivo é confirmar a integridade das informações antes que elas sejam utilizadas na alimentação dos modelos de inteligência artificial. Outra alternativa apontada é a regulamentação, embora algumas autoridades a considerem uma forma de “censura”.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.