▲
- O Grok, IA do X, foi manipulada para divulgar links de sites fraudulentos ocultos em anúncios.
- Você deve ter cuidado ao interagir com conteúdos gerados por IA em redes sociais para evitar golpes.
- A falha mostra riscos na segurança de IA e na moderação dos anúncios na plataforma X.
- A situação evidencia a necessidade de maior controle e regulamentos contra fraudes digitais no Brasil.
O Grok, o chatbot de inteligência artificial (IA) do X, pode ser usado para ajudar criminosos a aplicar golpes na plataforma. O pesquisador Nati Tal, da Guardio Security, foi quem fez essa descoberta e compartilhou a informação em seu perfil no serviço. Esta situação levanta questões importantes sobre a segurança e a integridade da IA em ambientes de rede social.
O especialista identificou que é possível enganar um mecanismo do Grok para proteger usuários e, em vez disso, direcionar esse recurso para amplificar fraudes. Essas fraudes são criadas em anúncios dentro da própria plataforma. Até agora, nem o X e nem Elon Musk, dono da rede social, se manifestaram sobre o ocorrido. O uso de IA em plataformas digitais está cada vez mais presente, e a segurança dessas ferramentas se torna um ponto crucial, pois a inteligência artificial está mudando a forma de ler textos no cotidiano.
Como o Grok em golpes no X pode ser usado por criminosos
De acordo com Tal, a estratégia de golpe se aproveita de uma regra do X que proíbe o uso de links diretos para outros sites em anúncios. Por conta dessa proibição, essas publicidades precisam incluir outros tipos de conteúdo, como postagens normais, vídeos ou atalhos para instalar aplicativos.
O esquema começa quando os criminosos criam anúncios com conteúdos chamativos e falsos, como materiais adultos. Eles anexam um pequeno vídeo para atrair as vítimas. Em um campo que fica escondido abaixo do reprodutor de vídeo, os criminosos inserem o endereço da página que eles realmente querem que seja acessada.
Depois que o anúncio é publicado, um perfil falso, que parece ser um usuário interessado, aciona o Grok em um comentário. Esse perfil solicita que a IA mostre qual é o link de origem daquele vídeo. O Grok, sem identificar que está expondo uma página possivelmente insegura, encontra o endereço no anúncio e posta a URL completa em um novo comentário.
Este comentário, com o link exposto pela IA, fica acessível para qualquer pessoa que tenha clicado na publicação original. Por aparecer no feed da inteligência artificial, essa interação pode dar uma sensação de legitimidade ao post, fazendo com que o link perigoso seja visto por um grande número de pessoas. Muitas empresas buscam integrar a IA em seus dispositivos, como a Samsung que fechou parceria com Google, Microsoft e Perplexity para integrar IA em dispositivos Galaxy.
Em vez de entregar o conteúdo prometido no vídeo, esses endereços redirecionam as vítimas para páginas que podem conter malwares para roubo de dados, sites que aplicam phishing ou redes que geram dinheiro com anúncios indesejados. Isso mostra a importância de cautela ao interagir com conteúdos gerados por IA em plataformas sociais.
O pesquisador destaca que essa falha precisa ser corrigida por diversos motivos. Primeiramente, ela explora uma IA muito popular e nativa da rede social. O Grok já esteve envolvido em controvérsias sobre seu comportamento e ganhou recursos que foram questionados, como um modo ‘picante‘ de geração de imagens. Os usuários estão cada vez mais em contato com funcionalidades de IA, e cerca de 70% dos usuários do Galaxy S25 adotam recursos de inteligência artificial em seus dispositivos.
Além disso, o problema revela uma questão mais séria: os anúncios no X podem estar com um controle inadequado. A plataforma estaria aprovando a circulação de conteúdos apelativos e com claras evidências de serem falsos. A regulação da publicidade online é um desafio constante, e a Anatel determina que bloqueio de chamadas publicitárias pelo ‘Não Me Perturbe’ será obrigatório no Brasil para tentar minimizar problemas em outras esferas.
Recentemente, pesquisadores também identificaram um método para acessar dados protegidos de chatbots como o ChatGPT. Essas descobertas reforçam a necessidade contínua de atenção à segurança das inteligências artificiais e às políticas de moderação em plataformas digitais para proteger os usuários.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.