Bug do ChatGPT facilita a execução de crimes; descubra como isso aconteceu

Bug ChatGPT em crimes: vulnerabilidade permitia acesso a informações perigosas, como fabricação de armas e malwares. Descubra como a falha foi explorada e corrigida.
Atualizado há 6 horas
Bug ChatGPT em crimes

Outros destaques

DeepSeek no Copilot
Resultados financeiros Apple Q1 2025
Biometria facial Bradesco Pix
DeepSeek R1 desempenho
Gemini 2.0 Flash lançamento

Uma falha de segurança, apelidada de Time Bandit, permitia burlar a proteção do ChatGPT e fazê-lo responder a perguntas sobre temas perigosos, incluindo Bug ChatGPT em crimes. A vulnerabilidade permitia que usuários “desligassem” os filtros de conteúdo da plataforma de inteligência artificial da OpenAI, possibilitando conversas sobre a fabricação de armas caseiras, venenos, malwares e até materiais radioativos.

CONTINUA DEPOIS DA PUBLICIDADE

Falha de segurança no ChatGPT permitia instruções para crimes

O ChatGPT, conhecido por evitar tópicos sensíveis, apresentava uma vulnerabilidade que permitia a usuários burlar seus filtros de segurança. Essa brecha, descoberta pelo pesquisador de cibersegurança David Kuszmar, foi nomeada Time Bandit, que em português significa “bandido do tempo”. O nome faz referência ao método usado para explorar a falha: confundir o ChatGPT sobre as datas mencionadas nos comandos (prompts).

Com a exploração do Time Bandit, o ChatGPT fornecia informações sobre temas normalmente bloqueados, como a criação de armas e códigos maliciosos. O pesquisador conseguiu, inclusive, discutir sobre materiais radioativos com o chatbot. A vulnerabilidade afetava até a versão mais recente e avançada da plataforma, o ChatGPT-4.

Como funcionava o Time Bandit?

O bug era ativado ao inserir no texto do comando (prompt) uma referência a uma data diferente de 2025. Bastava fazer o chatbot “pensar” que estava em outro ano e, em seguida, solicitar uma resposta para um cenário atual. Por exemplo, o usuário poderia perguntar como um programador de 1789 criaria um malware com as tecnologias de 2025.

Ao criar esse cenário hipotético e histórico, o filtro de segurança do ChatGPT não era acionado. A plataforma interpretava a solicitação como uma pergunta sobre o passado, não como um pedido de instruções para atividades ilegais no presente. O mesmo método foi testado no Gemini, IA da Google, mas sem sucesso. Seus mecanismos de proteção não foram afetados pela manipulação de datas.

CONTINUA DEPOIS DA PUBLICIDADE

Leia também:

Comunicação com OpenAI

Kuszmar reportou a vulnerabilidade para a OpenAI e agências de segurança dos EUA. No entanto, inicialmente não obteve resposta. O site Bleeping Computer também tentou contato com a empresa, mas sem sucesso inicial. A notificação de segurança só foi efetiva após a intervenção do CERT Coordination Center, da Universidade de Carnegie Mellon.

Esse tipo de falha em filtros de moderação não é novidade. Em um caso anterior, um indivíduo usou o ChatGPT para planejar a explosão de um Cybertruck. Além disso, já houve relatos de vazamento de dados sigilosos, como senhas e nomes de usuário, em conversas com a IA.

Após a notificação do CERT, a OpenAI confirmou a correção da vulnerabilidade e agradeceu o alerta. A empresa reforçou seu compromisso em aprimorar constantemente seus sistemas de segurança para prevenir o uso indevido de sua plataforma. Vale lembrar que a OpenAI não respondeu inicialmente aos alertas sobre a falha Time Bandit, que permitia a obtenção de informações sobre Bug ChatGPT em crimes.

CONTINUA DEPOIS DA PUBLICIDADE

Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.

Via TecMundo

André atua como jornalista de tecnologia desde 2009 quando fundou o Tekimobile. Também trabalhou na implantação do portal Tudocelular.com no Brasil e já escreveu para outros portais como AndroidPIT e Techtudo. É formado em eletrônica e automação, trabalhando com tecnologia há 26 anos.