Com a crescente popularidade dos modelos de linguagem grandes (LLMs), como o DeepSeek, a segurança dos dados tornou-se uma preocupação central para as organizações. Afinal, a facilidade de uso e os custos reduzidos dos LLMs públicos contrastam com os riscos de segurança que eles podem trazer. Neste artigo, vamos explorar como defender dados de LLMs públicos, garantindo que sua empresa e seus clientes estejam protegidos.
Afinal, como Defender Dados de LLMs Públicos?
O DeepSeek, um modelo de linguagem grande que promete desempenho semelhante a plataformas concorrentes por um custo menor, despertou a curiosidade de muitas organizações. No entanto, sua origem chinesa também gerou preocupações. A verdade é que a vigilância deve ser constante ao interagir com qualquer provedor de LLM público. A facilidade de uso, os custos mais baixos e a vasta comunidade dos LLMs públicos podem comprometer a segurança dos dados. O fato de o DeepSeek ser uma startup chinesa é motivo de preocupação, mas o uso de qualquer LLM público coloca os dados de uma organização em risco. O que acontece com esses dados? O que pode ou não ser enviado? E se o modelo for comprometido?
Esses riscos podem levar a brechas de segurança, desinformação e problemas regulatórios, exigindo um controle de dados rigoroso e trilhas de auditoria. Caso contrário, a empresa e seus clientes correm sérios riscos. Os desenvolvedores de aplicativos são a primeira linha de defesa no controle do uso de LLMs. Eles devem detectar, limpar e limitar os dados enviados e recebidos, além de proteger IDs de clientes, segredos e tokens de autorização.
Afinal, a primeira linha de defesa não pode ser a única. Uma abordagem de “defesa em profundidade” é crucial para controlar as interações com LLMs. Uma camada de segurança que muitas organizações já possuem é um API gateway. Com o uso crescente de IA preditiva e generativa, o acesso aos dados e, consequentemente, às chamadas de API, também aumenta. No entanto, a IA leva os APIs a direções que os gateways não foram projetados para lidar.
Além dos API Gateways
Isso se torna ainda mais evidente com o surgimento da agentic AI, que envolve modelos menores operando de forma autônoma e integrando-se a outros APIs e serviços. Devido a casos de uso, personalização, poder, soberania de dados, segurança, custo e outras questões, os agentes de IA em um ambiente empresarial geralmente são executados em plataformas internas, gerando tráfego leste-oeste, para o qual os API gateways não são otimizados.
Leia também:
O foco dos API gateways no tráfego norte-sul limita sua eficácia no contexto expandido da IA. As organizações devem ir além dos API gateways e estabelecer um intermediário que observe, audite e controle as interações fora do aplicativo. Uma solução é um AI gateway, que pode implementar segurança e Web application firewalls (controles baseados em IP). Os AI gateways também podem aplicar políticas sobre o que os LLMs podem ou não ser usados, protegendo conexões e atuando como barreiras de proteção que inspecionam solicitações e respostas dos LLMs para determinar se devem ser permitidas.
AI gateways também permitem que as organizações implementem uma arquitetura de “kill-switch“, permitindo que configurem novas proteções caso uma vulnerabilidade seja detectada. Esse processo é muito mais eficiente do que solicitar que todas as equipes de aplicativos atualizem seu código. Outras linhas de defesa que as organizações devem considerar integrar em seus pipelines de IA incluem:
- Sanitização de entrada
- Criptografia de dados
- Auditoria de segurança e planos de resposta a incidentes
- Monitoramento contínuo de LLM
- Controles de treinamento de dados
- Educação de funcionários
O DeepSeek é um modelo poderoso, mas as organizações devem ter cuidado com os dados e informações que enviam para ele, assim como fariam com qualquer modelo hospedado por um provedor público. Embora o DeepSeek possa ser seguro, a incerteza permanece. O mesmo vale para qualquer provedor de modelo LLM. Portanto, é crucial implementar sistemas rigorosos de segurança, observabilidade e proteção antes de interagir com qualquer LLM público.
Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.