O início de 2026 prometia mais um ano de domínio absoluto do ChatGPT no mercado de assistentes de inteligência artificial. Mas uma série de eventos políticos e corporativos nos Estados Unidos mudou completamente esse cenário em questão de dias. O Claude, da Anthropic, saltou do anonimato para o topo da App Store americana, superando o ChatGPT e o Google Gemini, em um movimento que surpreendeu até os analistas mais atentos do setor.
O gatilho foi uma decisão que poucos esperavam de uma empresa de tecnologia: a Anthropic se recusou a fechar um contrato com o Departamento de Defesa dos Estados Unidos porque os termos exigiam o uso de IA para vigilância doméstica em massa e para o desenvolvimento de armas totalmente autônomas — usos que a empresa considerou incompatíveis com seus princípios de segurança.
Essa postura ética, num momento em que o debate sobre privacidade e militarização da IA está no centro das discussões globais, resonou profundamente com uma parcela significativa dos usuários. O resultado foi imediato e mensurável.
O Contexto: OpenAI, Pentágono e a Divisão Ética
Para entender a migração em massa, é preciso reconstruir a linha do tempo dos acontecimentos que se acumularam nos últimos meses.
Janeiro a fevereiro de 2026: A Anthropic estava em negociações com o Departamento de Defesa americano para um contrato de fornecimento de IA. A empresa, porém, apresentou exigências: os modelos não poderiam ser usados para vigilância em massa da população doméstica nem para sistemas de armas totalmente autônomos — aqueles que tomam decisões de ataque sem intervenção humana.
Leia também:
27 de fevereiro de 2026: A Anthropic teve um prazo final para aceitar os termos como estavam. A empresa manteve sua posição e recusou o contrato. A reação do governo foi imediata: o presidente Donald Trump ordenou que todas as agências federais cessassem o uso dos produtos da Anthropic. O Secretário de Defesa, Pete Hegseth, foi além e anunciou planos para designar a Anthropic como uma “ameaça à cadeia de suprimentos” do país.
Horas depois: A OpenAI anunciou que havia fechado seu próprio acordo com o Pentágono, assumindo o contrato que a Anthropic havia recusado. Segundo a empresa, o acordo incluiria “salvaguardas”, mas os detalhes foram vagos — o que alimentou ainda mais o debate público sobre privacidade e ética no uso militar da IA.
1 e 2 de março de 2026: Relatos do Wall Street Journal revelaram que o Exército americano havia utilizado o Claude da Anthropic em uma operação militar anterior — incluindo no ataque ao Irã —, para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A informação ampliou ainda mais o escrutínio público sobre como modelos de IA estão sendo integrados às forças armadas americanas.
Os Números da Migração
O impacto da polêmica nos downloads e registros foi extraordinário e documentado pela própria Anthropic e por firmas de análise de mercado.
| Métrica | Dados |
|---|---|
| Posição na App Store EUA (iOS) | 1º lugar — superando ChatGPT e Gemini |
| Posição no início de janeiro | Fora do top 100 |
| Crescimento de usuários gratuitos (desde jan/2026) | +60% |
| Crescimento de assinantes pagos em 2026 | Mais que dobrou |
| Registros diários | Máximos históricos |
| Usuários que deixaram o ChatGPT | Estimativa de 1,5 milhão |
O crescimento foi verificado não apenas em downloads mobile: os registros na plataforma web também quebraram recordes históricos segundo porta-voz da Anthropic ao TechCrunch.
Por Que os Usuários Estão Migrando?
A polêmica com o Pentágono foi o estopim, mas não foi a única razão. Uma série de fatores vinha acumulando insatisfação com a OpenAI e criando espaço para alternativas.
Razões que motivaram a migração para o Claude:
-
Postura ética da Anthropic: A recusa de fornecer IA para vigilância em massa foi interpretada por muitos usuários como um sinal de alinhamento com valores de privacidade e segurança
-
Publicidade no ChatGPT: A OpenAI anunciou a introdução de anúncios no plano gratuito e no plano mais barato do ChatGPT — uma decisão criticada por usuários que consideram o produto invasivo
-
Resposta de Sam Altman: Após críticas da Anthropic sobre os anúncios, o CEO da OpenAI respondeu de forma defensiva nas redes sociais, o que gerou repercussão negativa
-
Acordo com o Departamento de Defesa: Muitos usuários enxergaram o fechamento do contrato militar da OpenAI como uma quebra de confiança, especialmente aqueles que compartilham dados sensíveis com o assistente
-
Expansão do plano gratuito do Claude: A Anthropic ampliou o tier gratuito do Claude para incluir criação de arquivos, conectores e habilidades avançadas, reduzindo a barreira de entrada
-
Reputação entre desenvolvedores: O Claude Code, ferramenta de programação da Anthropic, ganhou grande prestígio na comunidade de desenvolvedores pela capacidade de criar aplicações complexas a partir do zero
Anthropic vs. OpenAI: Duas Visões de Negócio
A crise escancarou uma diferença fundamental na filosofia de negócio das duas maiores empresas de IA do mundo.
| Aspecto | OpenAI (ChatGPT) | Anthropic (Claude) |
|---|---|---|
| Modelo de receita | Assinaturas + anúncios + enterprise + contratos governamentais | Principalmente assinaturas e API |
| Relação com o governo dos EUA | Fechou contrato com o Pentágono | Recusou contrato com o Departamento de Defesa |
| Foco do produto | Plataforma ampla: imagens, vídeo, voz, agentes, busca | Assistente focado em raciocínio e segurança |
| Posição sobre dados sensíveis | Expansão de uso para publicidade | Enfatiza que conversas pessoais não alimentam anúncios |
| Acesso gratuito | Mantido com anúncios | Ampliado com novos recursos sem anúncios |
A análise do BNP Paribas, reportada pela CNBC, mostrou que os usuários ativos diários do Claude cresceram 11% logo após um anúncio publicitário da Anthropic no Super Bowl, o maior salto entre todas as empresas de IA que anunciaram no evento.
A Reação Política e os Riscos para a Anthropic
A recusa em assinar o contrato militar não veio sem consequências. A resposta do governo Trump foi rápida e agressiva. Além de ordenar que todas as agências federais parassem de usar produtos da Anthropic, o Secretário Pete Hegseth anunciou a intenção de classificar a empresa como uma ameaça à cadeia de suprimentos de defesa americana — uma designação que poderia ter implicações legais e comerciais sérias.
Ao mesmo tempo, o Wall Street Journal revelou que o próprio Exército dos EUA havia usado o Claude em operações militares recentes, incluindo uma operação que levou ao ataque ao Irã. A contradição entre o uso operacional do Claude pelas Forças Armadas e a pressão política para banir a Anthropic expôs a complexidade da relação entre governo, segurança nacional e tecnologia privada.
O Cenário no Brasil: Uma Realidade Diferente
Diferentemente dos Estados Unidos, o impacto no Brasil foi praticamente nulo até agora. O ChatGPT permanece no primeiro lugar da App Store e no segundo lugar da Google Play Store no país. O Claude sequer figura entre os 20 aplicativos mais populares no Brasil.
Especialistas apontam que a controvérsia tem um componente político muito específico ao contexto americano — a relação entre Big Tech e o governo Trump — que não ressoa da mesma forma no mercado brasileiro. Além disso, a penetração do Claude no Brasil ainda é significativamente menor, com menos conteúdo em português e menor visibilidade entre o público geral.
O Histórico de Tensões entre Anthropic e OpenAI
A rivalidade entre as duas empresas tem outros capítulos relevantes. Em agosto de 2025, a Anthropic bloqueou o acesso da OpenAI à sua API após descobrir que engenheiros da empresa estavam usando o Claude Code — ferramenta de programação da Anthropic — para comparar capacidades e testar respostas do modelo em categorias sensíveis, poucos dias antes do lançamento do GPT-5.
A Anthropic classificou o uso como uma violação direta dos termos de serviço, que proíbem explicitamente o uso do Claude para construir produtos concorrentes ou para engenharia reversa do modelo. A OpenAI descreveu a prática como “benchmarking padrão da indústria”.
Esses episódios, somados à polêmica com o Pentágono, constroem um quadro de crescente tensão entre as duas empresas que mais influenciam o rumo da inteligência artificial no mundo.
O Que Isso Significa para o Futuro da IA
O episódio marca um momento inédito no mercado de IA: pela primeira vez, uma decisão ética corporativa — e não um lançamento de produto ou melhoria técnica — foi o principal motor de crescimento de um assistente de IA. Usuários, especialmente desenvolvedores e profissionais que lidam com dados sensíveis, estão começando a avaliar não apenas o que um modelo faz, mas para quem a empresa que o desenvolve está trabalhando.
A pergunta que fica no ar para 2026 é se esse crescimento do Claude se sustentará após o ciclo de notícias se encerrar — ou se representa uma mudança estrutural de preferência que a OpenAI precisará levar a sério ao renegociar sua relação com usuários e reguladores.
