Testes de segurança reprovados pela DeepSeek AI levantam alerta para empresas
A DeepSeek AI em segurança está em xeque. Pesquisadores descobriram que o popular modelo de IA generativa chinês apresentou falhas em múltiplos testes de segurança. Entre as vulnerabilidades, estão “alucinações”, ausência de mecanismos de segurança, suscetibilidade a jailbreaking e à criação de malware.
DeepSeek AI em segurança: Falhas em testes levantam preocupações
Organizações devem reconsiderar o uso da IA generativa chinesa DeepSeek em aplicações corporativas. A conclusão vem após a reprovação do modelo em uma bateria de 6.400 testes de segurança, demonstrando a falta generalizada de proteções.
Pesquisadores da AppSOC testaram rigorosamente uma versão do modelo de linguagem grande (LLM) DeepSeek-R1. Os resultados mostraram falhas em áreas críticas, incluindo jailbreaking, injeção de prompt, geração de malware, segurança da cadeia de suprimentos e toxicidade. As taxas de falha variaram entre 19,2% e 98%, conforme revelado em um relatório recente.
Duas das áreas com maiores índices de falha foram a capacidade dos usuários de gerar malware e vírus usando o modelo. Isso representa uma oportunidade significativa para agentes mal-intencionados e uma ameaça considerável para usuários corporativos. Em 98,8% dos testes, a DeepSeek foi induzida a criar malware, e em 86,7% dos casos, gerou código de vírus. Tais números acendem um alerta sobre a DeepSeek AI em segurança.
Leia também:
Vale a pena conferir as melhores VPNs para 2025 e descobrir quais são as mais confiáveis e seguras.
Implicações para as empresas
As falhas da DeepSeek AI em testes de segurança levantam sérias preocupações sobre sua adequação para uso empresarial. A facilidade com que o modelo pode ser manipulado para gerar conteúdo malicioso representa um risco significativo para a segurança das informações corporativas. As empresas que consideram usar a DeepSeek devem estar cientes dessas vulnerabilidades e tomar as precauções necessárias para mitigar os riscos.
A Microsoft alerta sobre o possível impacto das IAs generativas na inteligência humana. Uma preocupação relevante no contexto das falhas de segurança da DeepSeek.
É importante lembrar que a segurança na utilização de IA é crucial. Ferramentas como Inteligência Artificial exigem atenção especial à segurança, especialmente em ambientes corporativos. Proteger dados e sistemas contra ameaças virtuais é essencial.
A segurança em IA é um tema cada vez mais relevante, e manter-se atualizado sobre tendências de AI para 2025 é fundamental para as empresas que buscam o futuro.
Ainda sobre segurança digital, vale a pena conhecer a atualização do iPhone com o iOS 18.3.1, que corrige falhas críticas de segurança.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via AI Business