▲
- Ataques em tempo de execução na inferência de IA estão elevando custos e riscos para as empresas.
- O objetivo é proteger os investimentos em IA, reduzindo violações e aumentando a segurança.
- Se não controlados, esses ataques podem comprometer a confiabilidade, conformidade e o ROI da IA.
- Implementar estratégias avançadas de segurança é fundamental para a sustentabilidade dos sistemas de IA.
No mundo da tecnologia, a promessa da Inteligência Artificial (IA) é clara, mas os custos de segurança na camada de inferência são uma surpresa. Novos ataques em tempo de execução, que visam o lado operacional da IA, estão aumentando os orçamentos, comprometendo a conformidade e desgastando a confiança do cliente. Tudo isso ameaça o Retorno sobre Investimento (ROI) e o Custo Total de Propriedade (TCO) das implementações de IA nas empresas.
Os Custos Ocultos da IA: O Desafio da Inferência
A Inteligência Artificial tem cativado as empresas com seu potencial para gerar insights importantes e ganhos de eficiência. No entanto, enquanto as organizações correm para colocar seus modelos em operação, uma realidade preocupante está surgindo: a fase de inferência da IA, onde o investimento se transforma em valor de negócio em tempo real, está sob ataque.
Este ponto crucial está elevando o Custo Total de Propriedade (TCO) de maneiras que os planos de negócios iniciais não previram. Executivos de segurança e finanças que aprovaram projetos de IA por seu potencial de transformação agora lidam com os gastos ocultos para proteger esses sistemas. Adversários descobriram que a inferência é onde a IA “ganha vida” para uma empresa, e é exatamente aí que podem causar mais danos.
O resultado é um aumento em cascata dos custos: a contenção de violações pode superar US$ 5 milhões por incidente em setores regulamentados, e os ajustes para conformidade podem custar centenas de milhares de dólares. Falhas de confiança podem causar quedas nas ações ou cancelamentos de contratos, destruindo o ROI projetado da IA. Sem contenção de custos na inferência, a IA se torna um gasto incontrolável.
Cristian Rodriguez, Field CTO para as Américas na CrowdStrike, destacou na RSAC 2025 que a inferência de IA está rapidamente se tornando o “próximo risco interno”. Outros líderes de tecnologia também apontam um ponto cego comum na estratégia corporativa. Vineet Arora, CTO da WinWire, observa que muitas organizações se concentram intensamente em proteger a infraestrutura ao redor da IA, mas ignoram a inferência.
Leia também:
Ataques em Tempo de Execução: Um Cenário Preocupante
Steffen Schreier, SVP de Produto e Portfólio na Telesign, aponta outro ponto cego: a suposição de que modelos de terceiros são seguros. Ele alerta que “esses modelos, muitas vezes, não foram avaliados contra o cenário de ameaças ou as necessidades de conformidade específicas de uma organização”, o que pode levar a resultados prejudiciais ou não conformes que desgastam a confiança da marca. Schreier mencionou que “vulnerabilidades no tempo de inferência — como injeção de prompt, manipulação de saída ou vazamento de contexto — podem ser exploradas por invasores para produzir resultados prejudiciais, tendenciosos ou não conformes”. Isso traz riscos sérios, especialmente em setores regulamentados, e pode rapidamente abalar a confiança na marca.
Quando a inferência é comprometida, as consequências afetam várias áreas do Custo Total de Propriedade (TCO). Os orçamentos de cibersegurança aumentam rapidamente, a conformidade regulatória é colocada em risco, e a confiança do cliente se desfaz. O sentimento dos executivos reflete essa preocupação crescente. Na pesquisa State of AI in Cybersecurity da CrowdStrike, apenas 39% dos entrevistados sentiram que as recompensas da IA generativa superam claramente os riscos, enquanto 40% as julgaram comparáveis. Essa ambivalência ressalta uma descoberta importante: controles de segurança e privacidade se tornaram requisitos essenciais para novas iniciativas de IA generativa, com impressionantes 90% das organizações agora implementando ou desenvolvendo políticas para governar a adoção da IA.
As principais preocupações não são mais abstratas; 26% citam a exposição de dados sensíveis e 25% temem ataques adversários como riscos chave. Esse cenário evidencia a necessidade de estratégias de segurança mais robustas e abrangentes para proteger os investimentos em IA e garantir sua sustentabilidade a longo prazo.
A imagem mostra que os líderes de segurança estão divididos quanto à segurança geral da IA generativa. As principais preocupações são a exposição de dados sensíveis a grandes modelos de linguagem (LLMs), representando 26%, e ataques adversários contra ferramentas de IA, com 25%. Esses dados reforçam a urgência de implementar medidas de proteção eficazes e de construir uma compreensão mais sólida sobre os riscos e benefícios da IA em ambientes empresariais.
Entendendo os Vetores de Ataque em Modelos de IA
A superfície de ataque única exposta pela execução de modelos de IA está sendo agressivamente explorada por adversários. Para se defender contra isso, Schreier aconselha: “É crucial tratar cada entrada como um potencial ataque hostil”. Estruturas como a OWASP Top 10 para Aplicações de Grandes Modelos de Linguagem (LLM) catalogam essas ameaças, que não são mais teóricas, mas vetores de ataque ativos impactando as empresas. É um lembrete constante de que a segurança da IA precisa ser abordada com seriedade.
Entre os vetores mais comuns estão a injeção de prompt (LLM01) e o tratamento inseguro de saída (LLM02). Nesses casos, invasores manipulam os modelos por meio de entradas ou saídas. Entradas maliciosas podem fazer com que o modelo ignore instruções ou revele código proprietário. O tratamento inseguro de saída ocorre quando um aplicativo confia cegamente nas respostas da IA, permitindo que invasores injetem scripts maliciosos em sistemas subsequentes.
Outros riscos incluem o envenenamento de dados de treinamento (LLM03) e o envenenamento de modelo, onde invasores corrompem os dados de treinamento ao introduzir amostras adulteradas, implantando gatilhos ocultos. Mais tarde, uma entrada inofensiva pode desencadear saídas maliciosas. Além disso, há a negação de serviço do modelo (LLM04): adversários podem sobrecarregar modelos de IA com entradas complexas, consumindo recursos excessivos para desacelerá-los ou derrubá-los, resultando em perda direta de receita.
As vulnerabilidades na cadeia de suprimentos e em plugins (LLM05 e LLM07) também representam um risco. O ecossistema de IA é construído sobre componentes compartilhados. Por exemplo, uma vulnerabilidade na ferramenta LLM Flowise expôs painéis de IA privados e dados sensíveis, incluindo tokens do GitHub e chaves de API da OpenAI, em 438 servidores. A divulgação de informações sensíveis (LLM06) permite que consultas inteligentes extraiam informações confidenciais de um modelo de IA se elas fizerem parte de seus dados de treinamento ou estiverem presentes no contexto atual.
A agência excessiva (LLM08) e a confiança excessiva (LLM09) são outro ponto de atenção. Conceder a um agente de IA permissões irrestritas para executar transações ou modificar bancos de dados é uma receita para o desastre se for manipulado. Por fim, o roubo de modelo (LLM10) ocorre quando modelos proprietários de uma organização podem ser roubados por meio de técnicas sofisticadas de extração — um ataque direto à sua vantagem competitiva. Todos esses pontos reforçam a necessidade de um cuidado constante na proteção dos sistemas de IA.
Por trás dessas ameaças estão falhas de segurança fundamentais. Adversários frequentemente fazem login com credenciais vazadas. No início de 2024, 35% das intrusões na nuvem envolveram credenciais de usuário válidas, e novas tentativas de ataque na nuvem não atribuídas aumentaram 26%, conforme o CrowdStrike 2025 Global Threat Report. Uma campanha de deepfake resultou em uma transferência fraudulenta de US$ 25,6 milhões, enquanto e-mails de phishing gerados por IA demonstraram uma taxa de cliques de 54%, mais de quatro vezes maior do que aqueles escritos por humanos. Isso mostra a evolução das táticas de ataque e a necessidade de defesas cada vez mais sofisticadas.
Retornando às Bases: Segurança Essencial na Era da IA
Proteger a IA exige um retorno disciplinado aos fundamentos de segurança, mas aplicados com uma visão moderna. “Acho que precisamos dar um passo atrás e garantir que a base e os fundamentos da segurança ainda são aplicáveis”, argumentou Rodriguez. “A mesma abordagem que você teria para proteger um sistema operacional é a mesma abordagem que você teria para proteger esse modelo de IA.”
Isso significa aplicar proteção unificada em todos os caminhos de ataque, com governança de dados rigorosa, gestão robusta de postura de segurança em nuvem (CSPM) e segurança com foco na identidade por meio do gerenciamento de direitos de infraestrutura em nuvem (CIEM). O objetivo é proteger os ambientes de nuvem onde a maioria das cargas de trabalho de IA reside. Como a identidade se torna o novo perímetro, os sistemas de IA devem ser governados com os mesmos controles de acesso rigorosos e proteções em tempo de execução que qualquer outro ativo crítico de negócios em nuvem.
O fantasma da Shadow AI, ou o uso não autorizado de ferramentas de IA por funcionários, cria uma superfície de ataque enorme e desconhecida. Um analista financeiro que usa um LLM gratuito online para documentos confidenciais pode inadvertidamente vazar dados proprietários. Como alertou Rodriguez, consultas a modelos públicos podem “se tornar respostas de outra pessoa”. Lidar com isso exige uma combinação de política clara, educação de funcionários e controles técnicos, como a gestão de postura de segurança de IA (AI-SPM), para descobrir e avaliar todos os ativos de IA, aprovados ou não. Este tipo de preocupação tem se tornado comum conforme a IA é mais adotada, como no caso de experimentos com IA na gestão de lojas físicas.
Para transformar negócios com IA, é fundamental que as empresas invistam em uma infraestrutura de segurança que abranja todo o ciclo de vida da IA, desde o desenvolvimento até a produção. Isso inclui visibilidade e segurança da cadeia de suprimentos durante o desenvolvimento, proteção da infraestrutura e dos dados, e a implementação de salvaguardas robustas para proteger os sistemas de IA em tempo de execução durante a produção. Assim, as organizações podem mitigar os riscos e maximizar o valor da IA de forma segura e eficaz.
Estratégias de Defesa para o Futuro da IA
Embora os adversários tenham transformado a IA em arma, a maré está começando a mudar. Como observa Mike Riemer, Field CISO da Ivanti, os defensores estão começando a “aproveitar todo o potencial da IA para fins de cibersegurança, analisando vastas quantidades de dados coletados de diversos sistemas”. Essa postura proativa é essencial para construir uma defesa robusta, que exige várias estratégias chave.
O primeiro passo, segundo Arora, é começar com uma “avaliação abrangente baseada em riscos”. Ele aconselha mapear todo o pipeline de inferência para identificar cada fluxo de dados e vulnerabilidade. “Ao vincular esses riscos a possíveis impactos financeiros”, ele explica, “podemos quantificar melhor o custo de uma violação de segurança” e construir um orçamento realista. Esta abordagem garante que a segurança seja vista como um investimento estratégico, e não apenas como um custo adicional.
Para estruturar isso de forma mais sistemática, CISOs e CFOs devem começar com um modelo de ROI ajustado ao risco. Uma abordagem seria: ROI de Segurança = (custo estimado da violação × probabilidade de risco anual) – investimento total em segurança. Por exemplo, se um ataque de inferência de LLM pudesse resultar em uma perda de US$ 5 milhões e a probabilidade fosse de 10%, a perda esperada seria de US$ 500.000. Um investimento de US$ 350.000 em defesas na fase de inferência renderia um ganho líquido de US$ 150.000 em risco evitado. Esse modelo permite o orçamento baseado em cenários, diretamente ligado aos resultados financeiros.
Empresas que alocam menos de 8% a 12% de seus orçamentos de projetos de IA para segurança na fase de inferência são frequentemente pegas de surpresa mais tarde pelos custos de recuperação de violações e conformidade. Um CIO de um provedor de saúde da Fortune 500, entrevistado pela VentureBeat e que pediu anonimato, agora aloca 15% de seu orçamento total de IA generativa para gerenciamento de riscos pós-treinamento, incluindo monitoramento em tempo de execução, plataformas AI-SPM e auditorias de conformidade. Um modelo de orçamento prático deve alocar recursos entre quatro centros de custo: monitoramento em tempo de execução (35%), simulação adversária (25%), ferramentas de conformidade (20%) e análise de comportamento do usuário (20%).
Aqui está uma amostra de alocação para uma implementação de IA empresarial de US$ 2 milhões, baseada em entrevistas contínuas da VentureBeat com CFOs, CIOs e CISOs que estão ativamente orçando projetos de IA:
Categoria de Orçamento | Alocação | Exemplo de Uso |
---|---|---|
Monitoramento em Tempo de Execução | US$ 300.000 | Detecção de anomalias comportamentais (picos de API) |
Simulação Adversária | US$ 200.000 | Exercícios de red team para testar injeção de prompt |
Ferramentas de Conformidade | US$ 150.000 | Alinhamento com a Lei de IA da UE, validações de inferência SOC 2 |
Análise de Comportamento do Usuário | US$ 150.000 | Detectar padrões de uso indevido no uso interno da IA |
Esses investimentos reduzem os custos de remediação de violações, penalidades regulatórias e violações de SLA (Acordo de Nível de Serviço), tudo isso ajudando a estabilizar o Custo Total de Propriedade (TCO) da IA. Dessa forma, a segurança se torna um componente integral e mensurável do sucesso de um projeto de IA.
Implementando Monitoramento e Validação em Tempo de Execução
Comece ajustando a detecção de anomalias para identificar comportamentos na camada de inferência, como padrões anormais de chamadas de API, mudanças na entropia de saída ou picos na frequência de consultas. Fornecedores como DataDome e Telesign agora oferecem análises comportamentais em tempo real adaptadas às assinaturas de uso indevido da IA generativa.
As equipes devem monitorar as mudanças na entropia das saídas, rastrear irregularidades de tokens nas respostas do modelo e observar a frequência atípica de consultas de contas privilegiadas. Configurações eficazes incluem o envio de registros para ferramentas SIEM (como Splunk ou Datadog) com analisadores de IA generativa personalizados e o estabelecimento de limites de alerta em tempo real para desvios das linhas de base do modelo. Isso permite uma vigilância contínua e proativa sobre o comportamento dos sistemas de IA.
A adoção de uma estrutura de Zero Trust para IA não é negociável. Ela opera com o princípio de “nunca confiar, sempre verificar”. Ao adotar essa arquitetura, Riemer observa que as organizações podem garantir que “apenas usuários e dispositivos autenticados obtenham acesso a dados e aplicativos sensíveis, independentemente de sua localização física”. Isso cria uma camada robusta de proteção, essencial para a segurança de sistemas complexos como a IA.
O Zero Trust no tempo de inferência deve ser aplicado em várias camadas: na identidade, autenticando atores humanos e de serviço que acessam os pontos de extremidade de inferência; nas permissões, limitando o acesso aos LLMs usando controle de acesso baseado em função (RBAC) com privilégios limitados no tempo; e na segmentação, isolando microsserviços de inferência com políticas de malha de serviço e aplicando padrões de menor privilégio por meio de plataformas de proteção de carga de trabalho em nuvem (CWPPs). Essa abordagem multifacetada garante que cada interação com o sistema de IA seja verificada e protegida. A figura no texto de referência ilustra como uma estratégia proativa de segurança de IA exige uma abordagem holística, abrangendo visibilidade e segurança da cadeia de suprimentos durante o desenvolvimento, protegendo a infraestrutura e os dados e implementando salvaguardas robustas para proteger os sistemas de IA em tempo de execução durante a produção.
Protegendo o Retorno do Investimento em IA
Proteger o ROI da IA empresarial exige modelar ativamente o benefício financeiro da segurança. Comece com uma projeção de ROI base, e então adicione cenários de economia de custos para cada controle de segurança. Mapear os investimentos em cibersegurança para custos evitados, incluindo remediação de incidentes, violações de SLA e rotatividade de clientes, transforma a redução de riscos em um ganho de ROI mensurável.
As empresas devem modelar três cenários de ROI: linha de base, com investimento em segurança e recuperação pós-violação, para demonstrar claramente a economia de custos. Por exemplo, uma empresa de telecomunicações que implementou validação de saída evitou mais de 12.000 consultas mal direcionadas por mês, economizando US$ 6,3 milhões anuais em penalidades de SLA e volume de call center. Vincule os investimentos aos custos evitados em remediação de violações, não conformidade com SLA, impacto na marca e rotatividade de clientes para construir um argumento de ROI defensável para os CFOs.
Os CFOs precisam de clareza sobre como os gastos com segurança protegem o resultado final. Para salvaguardar o ROI da IA na camada de inferência, os investimentos em segurança devem ser modelados como qualquer outra alocação de capital estratégica: com vínculos diretos com TCO, mitigação de riscos e preservação de receita. Use esta lista de verificação para tornar os investimentos em segurança de IA defensáveis na sala de reuniões e acionáveis no ciclo orçamentário:
- Vincule cada gasto com segurança de IA a uma categoria projetada de redução de TCO (conformidade, remediação de violações, estabilidade de SLA).
- Execute simulações de economia de custos com cenários de horizonte de 3 anos: linha de base, protegido e reativo a violações.
- Quantifique o risco financeiro de violações de SLA, multas regulatórias, erosão da confiança da marca e rotatividade de clientes.
- Modele em conjunto os orçamentos de segurança da camada de inferência com CISOs e CFOs para quebrar silos organizacionais.
- Apresente os investimentos em segurança como habilitadores de crescimento, não como despesas gerais, mostrando como eles estabilizam a infraestrutura de IA para uma captura de valor sustentada.
Este modelo não apenas defende os investimentos em IA; ele defende orçamentos e marcas, e pode proteger e aumentar a credibilidade da diretoria. É uma abordagem completa para gerenciar os riscos financeiros e reputacionais associados à crescente adoção da Inteligência Artificial.
Os CISOs devem apresentar o gerenciamento de riscos de IA como um facilitador de negócios, quantificado em termos de proteção de ROI, preservação da confiança da marca e estabilidade regulatória. À medida que a inferência de IA avança em fluxos de trabalho de receita, protegê-la não é um centro de custos; é o plano de controle para a sustentabilidade financeira da IA. Investimentos estratégicos em segurança na camada de infraestrutura devem ser justificados com métricas financeiras que os CFOs possam utilizar. O caminho a seguir exige que as organizações equilibrem o investimento em inovação de IA com um investimento equivalente em sua proteção. Isso exige um novo nível de alinhamento estratégico. Como Robert Grazioli, CIO da Ivanti, disse à VentureBeat: “O alinhamento entre CISO e CIO será crítico para proteger eficazmente os negócios modernos”.
Essa colaboração é essencial para derrubar os silos de dados e orçamento que minam a segurança, permitindo que as organizações gerenciem o verdadeiro custo da IA e transformem um jogo de alto risco em um motor de crescimento sustentável e de alto ROI. Schreier, da Telesign, acrescentou: “Nós vemos os riscos de inferência de IA através da lente da identidade digital e confiança. Incorporamos a segurança em todo o ciclo de vida de nossas ferramentas de IA — usando controles de acesso, monitoramento de uso, limitação de taxa e análises comportamentais para detectar uso indevido e proteger tanto nossos clientes quanto seus usuários finais de ameaças emergentes”. Ele continuou: “Abordamos a validação de saída como uma camada crítica de nossa arquitetura de segurança de IA, particularmente porque muitos riscos de tempo de inferência não vêm de como um modelo é treinado, mas de como ele se comporta na prática”.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.