Google não corrigirá falha no Gemini que pode expor suas informações sensíveis a terceiros

Google Gemini apresenta falha que pode revelar seus dados a estranhos; entenda o problema e a postura da empresa.
Atualizado há 2 horas
Google não corrigirá falha no Gemini que pode expor suas informações sensíveis a terceiros
(Imagem/Reprodução: Androidauthority)
Resumo da notícia
    • Pesquisador descobriu que o Google Gemini é vulnerável a ataques tipo ASCII smuggling, escondendo comandos maliciosos em textos comuns.
    • Você pode ser afetado porque a IA pode interpretar comandos ocultos em e-mails e calendários, expondo dados pessoais sem aviso.
    • Usuários e a sociedade precisam estar atentos à segurança em plataformas de IA que podem processar informações invisíveis a olhos humanos.
    • O Google considera o problema como engenharia social, repassando a responsabilidade da prevenção para o usuário final.
CONTINUA DEPOIS DA PUBLICIDADE

Um pesquisador de segurança revelou que o Google Gemini pode estar vulnerável a um tipo específico de ataque chamado ASCII smuggling. Estes ataques permitem que comandos maliciosos sejam escondidos em conteúdos aparentemente inofensivos, como e-mails ou convites de calendário. Modelos de linguagem grande (LLMs), como o assistente Gemini, podem ler e interpretar esses comandos ocultos ao resumir textos. O Google, no entanto, classifica a ameaça como engenharia social, colocando a responsabilidade de prevenção no usuário.

Geralmente, o Google leva a segurança de seus usuários muito a sério. A empresa implementa diversas medidas para garantir a proteção de seus produtos. Um exemplo disso é o rigoroso controle na instalação de aplicativos de desenvolvedores não verificados no Android, visando a segurança no sistema. Entretanto, parece haver uma abordagem diferente em relação a uma vulnerabilidade que afeta o Gemini, tornando-o suscetível a uma ameaça cibernética particular.

Compreendendo a Segurança do Google Gemini contra Ataques Ocultos

Os ataques de ASCII smuggling são uma técnica sofisticada para esconder informações dentro de textos. Eles utilizam caracteres que não são visíveis para os olhos humanos, mas que podem ser processados por sistemas computacionais. É como uma camada invisível de dados que passa despercebida na leitura comum, mas é detectada por softwares específicos.

CONTINUA DEPOIS DA PUBLICIDADE

Quando o Gemini é solicitado a fazer um resumo de um e-mail ou de um evento no calendário, ele analisa todo o conteúdo. Nestes casos, ele pode ler os comandos maliciosos que foram embutidos usando a técnica de ASCII smuggling. Estes comandos ficam disfarçados e o modelo de linguagem os interpreta sem que o usuário perceba a intenção original.

Esses comandos ocultos podem instruir o Gemini a realizar ações não autorizadas ou a divulgar dados confidenciais. Como o usuário não consegue identificar o texto malicioso, a interação com o assistente pode parecer normal. A brecha reside na forma como a IA processa e prioriza certas sequências de caracteres, sem uma filtragem adequada.

Leia também:

A capacidade desses ataques de se infiltrar em plataformas do Google, como e-mails e calendários que se integram com o Google Drive, é um ponto de atenção. Enquanto a empresa tem um histórico de proteger seu ecossistema, como com os Smartphones Google Pixel, essa situação com o Gemini apresenta um desafio distinto.

A Posição do Google e a Responsabilidade do Usuário

Mesmo após a descoberta da vulnerabilidade, o Google optou por não classificar o problema como uma falha direta em seu sistema. A empresa considera o ASCII smuggling como um tipo de ataque de engenharia social. Isso significa que, na visão do Google, a responsabilidade de identificar e evitar a interação com conteúdos maliciosos recai principalmente sobre o próprio usuário.

Essa postura levanta questões importantes sobre a segurança das plataformas de IA. Se uma inteligência artificial pode interpretar e agir com base em informações que os humanos não conseguem ver, deveria o sistema ter defesas mais robustas contra essa manipulação? A discussão gira em torno de quem deve ser o principal responsável por prevenir tais ameaças.

CONTINUA DEPOIS DA PUBLICIDADE

O incidente mostra que, embora as IAs sejam ferramentas poderosas, elas ainda possuem peculiaridades em sua interação com o texto. A interpretação desses modelos pode ser diferente da compreensão humana, exigindo que as empresas desenvolvam camadas de segurança que vão além do que é visível ao olho.

O caso do Gemini destaca a complexidade crescente na segurança digital, especialmente com o avanço das IAs. A linha entre uma falha de sistema e um ataque de engenharia social pode ser tênue, e a forma como as empresas e usuários abordam essas distinções será crucial para o desenvolvimento seguro da tecnologia.

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.