▲
- Um criminoso usou golpes com inteligência artificial para se passar por um secretário dos EUA e enganar políticos de alto nível.
- Você pode se proteger contra fraudes que usam IA para criar identidades falsas e enganar pessoas influentes.
- Isso aumenta o risco de vazamento de informações sensíveis e espionagem por hackers sofisticados.
- As tecnologias de deepfake e IA facilitam golpes que parecem reais, representando um desafio crescente para a segurança digital.
Um novo e preocupante caso mostra como a tecnologia pode ser usada para fins ilícitos. Um criminoso usou golpe com inteligência artificial para se passar por Marco Rubio, o Secretário de Estado dos EUA. O impostor tentou enganar ministros e políticos, conforme revelado pelo jornal The Washington Post, que acessou um telegrama do Departamento de Estado.
Como a Farsa com Inteligência Artificial Aconteceu
O incidente mostra um novo nível de sofisticação em golpes. De acordo com o documento oficial, o golpista utilizou comandos de voz avançados para replicar a fala de Rubio. Essa técnica permitiu que ele se comunicasse de forma convincente, visando enganar as vítimas em conversas diretas.
Os alvos da ação foram pelo menos três ministros de Relações Exteriores, um governador dos Estados Unidos e também um membro do Congresso norte-americano. Essa amplitude de alvos demonstra a ousadia do criminoso e o potencial impacto de tal fraude em altos níveis do governo.
O telegrama, datado de 3 de julho, indicou que o impostor usou o aplicativo de mensagens Signal para enviar mensagens de voz. A escolha do Signal, conhecido por sua criptografia, pode ter sido uma tentativa de adicionar uma camada de legitimidade e privacidade às comunicações fraudulentas.
O plano do golpista era claro: ele queria ter acesso a círculos de confiança. O objetivo principal era “obter acesso a informações ou contas” de funcionários que faziam parte da administração do ex-presidente Trump. Isso sugere uma tentativa de espionagem ou obtenção de dados sensíveis.
Leia também:
Alvos e Objetivos da Fraude
O jornal The Washington Post apontou que a trama começou em junho. Naquele período, o criminoso criou uma conta no Signal usando um e-mail falsificado que parecia oficial: “Marco.Rubio@state.gov”. Essa etapa inicial foi crucial para dar credibilidade à sua identidade falsa.
Representantes do Departamento de Estado, procurados pela reportagem, afirmaram que iriam investigar o assunto a fundo. Contudo, eles não forneceram detalhes sobre o teor específico das conversas que aconteceram ou quais políticos foram envolvidos diretamente no incidente. A falta de informações detalhadas levanta questões sobre a extensão do problema.
Ainda assim, a capacidade de imitar vozes com inteligência artificial levanta preocupações. A facilidade com que isso é feito hoje em dia, sem muito esforço, mostra o desafio crescente para a segurança digital e a proteção de informações sensíveis.
Ameaças Cibernéticas e o Papel da IA
O telegrama do Departamento de Estado também mencionou que, a princípio, “não há nenhuma ameaça cibernética direta ao departamento com esta campanha”. Essa avaliação inicial indica que o foco principal era a coleta de informações, e não um ataque a sistemas de computador.
No entanto, o documento ressalta que, se as conversas tivessem continuado por mais tempo, os indivíduos visados poderiam ter sido expostos. Isso poderia ter se tornado um problema de maior proporção para a administração norte-americana, revelando a importância de identificar e interromper essas ações rapidamente.
É importante destacar que o documento também faz menções a uma campanha de phishing que ocorreu em abril, a qual pode estar ligada a um hacker russo. Naquela ocasião, os alvos incluíam centros de estudo (think thanks), ativistas europeus e ex-funcionários do Departamento de Estado. Esse contexto mostra um padrão de ataques contra figuras influentes.
Com a rápida evolução das IAs, é compreensível que o criminoso não teve muito trabalho para copiar a voz de Rubio. Essa tecnologia já é amplamente utilizada em deepfakes, especialmente durante campanhas eleitorais, para criar vídeos e áudios que parecem reais, mas são totalmente falsos. A facilidade de acesso a essas ferramentas torna o cenário da cibersegurança mais complexo.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.