Bug do ChatGPT facilita a execução de crimes; descubra como isso aconteceu

Bug ChatGPT em crimes: vulnerabilidade permitia acesso a informações perigosas, como fabricação de armas e malwares. Descubra como a falha foi explorada e corrigida.
Atualizado há 3 meses
Bug ChatGPT em crimes
Bug ChatGPT em crimes
CONTINUA DEPOIS DA PUBLICIDADE

Uma falha de segurança, apelidada de Time Bandit, permitia burlar a proteção do ChatGPT e fazê-lo responder a perguntas sobre temas perigosos, incluindo Bug ChatGPT em crimes. A vulnerabilidade permitia que usuários “desligassem” os filtros de conteúdo da plataforma de inteligência artificial da OpenAI, possibilitando conversas sobre a fabricação de armas caseiras, venenos, malwares e até materiais radioativos.

Falha de segurança no ChatGPT permitia instruções para crimes

O ChatGPT, conhecido por evitar tópicos sensíveis, apresentava uma vulnerabilidade que permitia a usuários burlar seus filtros de segurança. Essa brecha, descoberta pelo pesquisador de cibersegurança David Kuszmar, foi nomeada Time Bandit, que em português significa “bandido do tempo”. O nome faz referência ao método usado para explorar a falha: confundir o ChatGPT sobre as datas mencionadas nos comandos (prompts).

Com a exploração do Time Bandit, o ChatGPT fornecia informações sobre temas normalmente bloqueados, como a criação de armas e códigos maliciosos. O pesquisador conseguiu, inclusive, discutir sobre materiais radioativos com o chatbot. A vulnerabilidade afetava até a versão mais recente e avançada da plataforma, o ChatGPT-4.

Como funcionava o Time Bandit?

CONTINUA DEPOIS DA PUBLICIDADE

O bug era ativado ao inserir no texto do comando (prompt) uma referência a uma data diferente de 2025. Bastava fazer o chatbot “pensar” que estava em outro ano e, em seguida, solicitar uma resposta para um cenário atual. Por exemplo, o usuário poderia perguntar como um programador de 1789 criaria um malware com as tecnologias de 2025.

Ao criar esse cenário hipotético e histórico, o filtro de segurança do ChatGPT não era acionado. A plataforma interpretava a solicitação como uma pergunta sobre o passado, não como um pedido de instruções para atividades ilegais no presente. O mesmo método foi testado no Gemini, IA da Google, mas sem sucesso. Seus mecanismos de proteção não foram afetados pela manipulação de datas.

Leia também:

Comunicação com OpenAI

Kuszmar reportou a vulnerabilidade para a OpenAI e agências de segurança dos EUA. No entanto, inicialmente não obteve resposta. O site Bleeping Computer também tentou contato com a empresa, mas sem sucesso inicial. A notificação de segurança só foi efetiva após a intervenção do CERT Coordination Center, da Universidade de Carnegie Mellon.

Esse tipo de falha em filtros de moderação não é novidade. Em um caso anterior, um indivíduo usou o ChatGPT para planejar a explosão de um Cybertruck. Além disso, já houve relatos de vazamento de dados sigilosos, como senhas e nomes de usuário, em conversas com a IA.

Após a notificação do CERT, a OpenAI confirmou a correção da vulnerabilidade e agradeceu o alerta. A empresa reforçou seu compromisso em aprimorar constantemente seus sistemas de segurança para prevenir o uso indevido de sua plataforma. Vale lembrar que a OpenAI não respondeu inicialmente aos alertas sobre a falha Time Bandit, que permitia a obtenção de informações sobre Bug ChatGPT em crimes.

CONTINUA DEPOIS DA PUBLICIDADE

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via TecMundo

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.