Usuários no mundo todo estão abandonando o Chatgpt e migrando para o concorrente Claude, porque a Anthropic, dona do Claude, recusou um acordo com o Pentágono nos EUA, mas qual o real motivo?
A Anthropic recusou o acordo com o Pentágono porque se negou a retirar duas salvaguardas fundamentais que o Departamento de Defesa exigia eliminar do contrato: a proibição de uso da IA para vigilância doméstica em massa e para armas totalmente autônomas.
As Duas Linhas que a Anthropic Se Recusou a Cruzar
O contrato em disputa valia US$ 200 milhões e o Claude já era o primeiro sistema de IA autorizado a operar nas redes classificadas do governo americano. O impasse surgiu quando o Pentágono exigiu que a Anthropic concordasse com o uso da tecnologia “para todos os fins legais”, sem restrições impostas pela empresa.
A Anthropic se recusou, mantendo duas exceções específicas:
-
Armas totalmente autônomas: sistemas nos quais a IA — e não um humano — toma a decisão final de atacar em campo de batalha, sem supervisão humana no processo
-
Vigilância doméstica em massa: monitoramento em larga escala da própria população americana
O Argumento de Dario Amodei
O CEO da Anthropic, Dario Amodei, publicou um longo comunicado explicando a posição da empresa. Ele declarou acreditar profundamente na necessidade de usar IA para proteger os EUA e combater adversários autocráticos, mas apontou que em casos específicos a IA pode enfraquecer princípios democráticos em vez de defendê-los.
Sua justificativa se apoiou em dois pilares técnicos e éticos:
-
Confiabilidade tecnológica: os modelos de IA atuais ainda não são suficientemente confiáveis para tomar decisões de ataque sem supervisão humana — o que coloca em risco tanto soldados quanto civis
-
Direitos fundamentais: a vigilância doméstica em massa viola direitos básicos dos cidadãos americanos, independentemente de ser tecnicamente “legal”
A frase que resumiu a posição da empresa foi direta: “Não podemos, em sã consciência, atender à solicitação.”
O Detalhe Jurídico que Afundou as Negociações
O Pentágono chegou a propor uma nova redação contratual como “compromisso”, mas a Anthropic rejeitou também essa versão. Segundo a empresa, o novo texto vinha acompanhado de linguagem jurídica que permitia ignorar as proteções a qualquer momento.
Em comunicado à ABC News, a Anthropic foi explícita: “A linguagem contratual que recebemos do Departamento de Guerra não fez praticamente nenhum progresso para evitar o uso do Claude em vigilância em massa de americanos ou em armas totalmente autônomas.”
A Resposta do Governo Trump
A reação foi imediata e contundente. O secretário de Defesa Pete Hegseth declarou a Anthropic um “risco à cadeia de suprimentos” — designação geralmente reservada a empresas associadas a adversários estrangeiros, como China ou Rússia — e ameaçou cancelar todos os contratos existentes.
O presidente Trump foi ainda mais agressivo nas redes sociais, ameaçando usar “todo o poder da Presidência” contra a empresa, com possíveis consequências civis e criminais. O Pentágono chegou a cogitar invocar a Lei de Produção de Defesa, legislação da era da Guerra Fria, para usar o software da Anthropic mesmo contra a vontade da empresa.
Um alto funcionário do governo chegou a acusar Amodei de ter um “complexo de Deus” por impor limitações ao uso militar da IA.
O Apoio da Indústria
A decisão da Anthropic gerou uma reação incomum no Vale do Silício. Funcionários da Amazon, Google e Microsoft enviaram carta aberta a seus próprios superiores pedindo que essas empresas também rejeitassem contratos que envolvessem armas autônomas ou monitoramento em larga escala — demonstrando que a preocupação vai além da Anthropic.
Senadores americanos de ambos os partidos também intervieram, reconhecendo que o tema de “uso legal” ainda precisa de regulamentação mais clara por parte do Congresso.
