Pesquisadores da Cisco descobrem técnica para extrair dados protegidos de chatbots

Pesquisadores da Cisco revelam método para acessar informações sigilosas de IAs como ChatGPT. Entenda os riscos de segurança para empresas e usuários.
Atualizado há 2 dias atrás
Pesquisadores da Cisco descobrem técnica para extrair dados protegidos de chatbots
(Imagem/Reprodução: Tecmundo)
Resumo da notícia
CONTINUA DEPOIS DA PUBLICIDADE

Diversas inteligências artificiais, como assistentes pessoais, têm sistemas de segurança que evitam responder perguntas potencialmente perigosas ou que possam expor dados confidenciais. No entanto, pesquisadores da Cisco descobriram uma técnica que consegue burlar essas travas de proteção, tornando as IAs vulneráveis a ataques que podem resultar na extração de informações sensíveis. Essa brecha reforça a necessidade de reforçar a segurança dessas tecnologias.

Como os pesquisadores descobriram a vulnerabilidade em IAs?

Em uma pesquisa realizada em setembro de 2024, a Cisco testou a segurança de chatbots ao tentar acessar conteúdo protegido de fontes como The New York Times. Apesar do sistema reconhecer a existência de um artigo, a IA não conseguiu detalhar o conteúdo por questões de direitos autorais. Mesmo assim, os pesquisadores perceberam que era possível obter informações usando uma técnica chamada decomposição instrucional.

Ao aplicar essa técnica, eles dividiram as solicitações em várias etapas, evitando disparar os mecanismos de bloqueio padrão. Por exemplo, solicitar um resumo do artigo funcionou, mas perguntas diretas ao conteúdo foram bloqueadas. Com isso, os pesquisadores conseguiram extrair partes específicas do texto, como a primeira frase do artigo, sem ativar o sistema de restrição.

CONTINUA DEPOIS DA PUBLICIDADE

Esse método consiste em não citar palavras-chave que ativariam o bloqueio e desfazer a solicitação em várias perguntas aparentemente inocentes. Assim, os mecanismos de segurança não percebem que o usuário tenta acessar conteúdo restrito, possibilitando a extração de informações protegidas. Para entender melhor essa técnica, a Cisco disponibilizou um passo a passo ilustrado em suas publicações.

A técnica de decomposição instrucional na prática

A ideia central é quebrar pedidos amplos em perguntas menores e segmentadas, de modo que a IA consiga responder sem ativar o bloqueio. Primeiro, solicitam um resumo geral, depois pedem determinadas frases ou informações específicas do material, sempre evitando mencionar o nome do artigo. Assim, os mecanismos de segurança interpretam as perguntas como inofensivas.

O procedimento expõe um risco sério: é possível obter informações que deveriam estar restritas, mesmo sem autorização explícita. Além de livros, artigos e notícias, esse método também pode ser usado para invadir sistemas corporativos, onde chatbots podem armazenar dados sigilosos.

De acordo com a Cisco, o método não é exclusivo para ferramentas de IA de uma única empresa. Como muitas usam algoritmos semelhantes, criminosos podem explorar essa vulnerabilidade para obter informações sensíveis de empresas que dependem de assistentes virtuais.

Por que essa falha de segurança em IAs é preocupante?

Mesmo que o teste realizado pela Cisco envolva artigos de jornais pagos — conteúdos de menor valor material para hackers — o risco real é maior em ambientes corporativos. Muitos negócios utilizam chatbots com algoritmos próprios ou de grandes provedores, como Google, OpenAI ou Microsoft, que podem transferir informações confidenciais inadvertidamente.

Criminosos podem usar essa técnica para driblar os sistemas de proteção e extrair dados sigilosos de empresas ou instituições públicas. Sem a devida atenção, pode ocorrer vazamento de informações estratégicas, dados financeiros ou dados pessoais de clientes, o que aumenta o potencial de crimes cibernéticos.

CONTINUA DEPOIS DA PUBLICIDADE

Esse problema evidencia a vulnerabilidade existente nessas tecnologias, que ainda estão em desenvolvimento e enfrentam desafios para garantir a segurança e privacidade. Segundo especialistas, a falha de segurança em IAs reforça a importância de melhorias constantes na segurança de chatbots e assistentes virtuais, principalmente conforme a quantidade de dados sensíveis cresce a cada dia.

Informações sobre ataques e vulnerabilidades nesse setor também podem ser acompanhadas pelo site do TecMundo, que continuamente monitora esse cenário de ameaças emergentes.

Via Tecnoblog

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.