Quando uma empresa recusa vigilância em massa e armas autônomas, Washington responde com a linguagem da punição.
O confronto entre a Anthropic e o Departamento de Defesa dos Estados Unidos deixou de ser uma disputa contratual e virou um teste decisivo sobre quem manda na inteligência artificial de ponta.
No centro do caso está uma acusação explosiva da senadora Elizabeth Warren: o Pentágono estaria retaliando uma empresa americana por se recusar a cruzar linhas éticas.
A batalha agora será medida também no tribunal, onde um juiz federal em San Francisco decidirá se o governo pode sufocar comercialmente uma companhia por causa das restrições que ela impõe ao uso de sua tecnologia.
A crise começou quando a Anthropic recusou duas exigências que seus fundadores consideram inaceitáveis. A empresa não aceitou que suas ferramentas fossem usadas para vigilância em massa da população americana.
Também vetou o uso de sua tecnologia em sistemas de armas autônomas letais. Trata-se de sistemas capazes de selecionar e atacar alvos sem intervenção humana significativa, algo que a empresa considera prematuro e perigoso.
A resposta do Pentágono foi classificar a Anthropic como “risco à cadeia de suprimentos”. Esse tipo de rótulo costuma ser associado a empresas ligadas a países tratados por Washington como adversários, como China e Rússia.
Na prática, o efeito é devastador para os negócios da empresa. Contratantes e agências que trabalham para o governo dos Estados Unidos passam a ter de certificar que não usam produtos ou serviços da Anthropic.
Num mercado em que o Estado americano é um dos maiores compradores de tecnologia do planeta, a medida funciona como um quase banimento. O que estava em discussão, portanto, deixou de ser apenas um desacordo técnico e passou a ter peso de punição exemplar.
Foi nesse contexto que Elizabeth Warren enviou uma carta ao secretário de Defesa, Pete Hegseth, denunciando o que chamou de “retaliação” pura e simples. A informação foi reportada inicialmente pela CNBC.
Na carta, a senadora afirmou estar “particularmente preocupada” com a possibilidade de o Departamento de Defesa estar tentando coagir empresas americanas a fornecer ferramentas para espionar cidadãos dos Estados Unidos e implantar armas totalmente autônomas sem salvaguardas adequadas. A formulação dá ao caso uma dimensão muito maior do que a de um litígio comercial.
Warren sustenta que, se o Pentágono estivesse apenas insatisfeito com um contrato específico, poderia ter rescindido esse acordo. Ao optar por uma blacklist ampla, o governo teria escolhido um caminho punitivo, com o objetivo de enviar uma mensagem para todo o setor.
Essa leitura não ficou restrita ao gabinete da senadora. O caso passou a atrair apoio de nomes influentes da indústria de tecnologia e de grupos de direitos civis, que entraram no processo como amici curiae, os chamados amigos da corte.
Entre os apoiadores citados estão empregados e representantes de OpenAI, Google e Microsoft. Para esse grupo, o que está em jogo é um precedente que pode redefinir a relação entre o Estado americano e as empresas que desenvolvem os sistemas mais avançados de inteligência artificial.
O argumento jurídico central da Anthropic se apoia na Primeira Emenda da Constituição dos Estados Unidos, que protege a liberdade de expressão. A empresa afirma que está sendo punida por suas posições éticas e ideológicas sobre como sua tecnologia pode ou não ser usada.
Já a defesa do Departamento de Defesa tenta deslocar a discussão para o terreno estritamente comercial. Segundo o Pentágono, a recusa da Anthropic em permitir “todos os usos militares legais” de sua tecnologia não seria discurso protegido, mas apenas uma decisão de negócios.
Na versão oficial do governo, a designação de risco foi uma providência rotineira de segurança nacional. O recado implícito, porém, é duro e cristalino: empresas privadas não devem impor limites ao modo como as Forças Armadas pretendem empregar tecnologias estratégicas.
O caso chega a um ponto crítico nesta terça-feira, quando um juiz federal em San Francisco analisará o pedido de liminar apresentado pela Anthropic. A empresa quer suspender os efeitos da blacklist enquanto o processo principal segue em tramitação.
A decisão pode ter consequências profundas para toda a indústria. Se a liminar for negada, o governo ganhará força para pressionar outras companhias a aceitar usos militares que seus próprios desenvolvedores considerem eticamente inaceitáveis.
Se for concedida, abrirá espaço para reconhecer que empresas de tecnologia também têm o direito de estabelecer limites morais ao emprego de seus produtos pelo Estado. Isso afetaria diretamente a corrida para integrar inteligência artificial a sistemas de defesa, vigilância e comando militar.
Em paralelo, Warren ampliou a pressão política sobre o setor. A senadora enviou uma carta a Sam Altman, diretor executivo da OpenAI, pedindo detalhes sobre o acordo recente da empresa com o Pentágono.
O momento dessa cobrança é revelador. O acordo da OpenAI foi fechado apenas um dia depois de o Departamento de Defesa colocar a Anthropic na lista negra, o que reforçou a percepção de que o mercado recebeu uma mensagem simples e brutal: colaborar ou ser excluído.
Nos documentos judiciais mais recentes, a Anthropic acusa o governo de ter baseado sua decisão em mal-entendidos técnicos. A empresa também afirma que pontos usados depois para justificar a blacklist jamais foram levantados durante as negociações originais.
Isso enfraquece a tese de que se tratou apenas de um procedimento administrativo normal. Se a empresa estiver correta, o que aparece é um mecanismo de coerção posterior, acionado quando a companhia se recusou a flexibilizar suas restrições éticas.
O conflito, por isso, ultrapassa em muito os limites de um contrato. Ele toca no núcleo da disputa sobre quem definirá as regras da supremacia tecnológica americana e sobre qual será a natureza dessa supremacia.
De um lado está o complexo militar-industrial, empenhado em incorporar inteligência artificial de ponta a todas as camadas do poder, da vigilância ao campo de batalha automatizado. De outro, surge uma resistência ética dentro do próprio centro tecnológico dos Estados Unidos, mostrando que nem toda empresa aceita servir sem reservas à agenda de segurança nacional.
Para o Sul Global e para países como o Brasil, o episódio funciona ao mesmo tempo como alerta e espelho. Alerta, porque mostra o risco de uma inteligência artificial moldada exclusivamente pela lógica da dominação, do controle social e da projeção militar.
Espelho, porque expõe a urgência de desenvolver capacidades próprias e soberanas em inteligência artificial. Sem isso, nações periféricas continuarão dependentes de tecnologias desenhadas segundo prioridades alheias, frequentemente subordinadas a interesses bélicos e imperiais.
A batalha da Anthropic, portanto, não é apenas americana. Ela antecipa uma disputa maior sobre quem escreverá as regras da próxima era digital e a serviço de quem essas regras serão aplicadas.
No fim, a pergunta é menos técnica do que política. A inteligência artificial do futuro servirá para ampliar autonomia, direitos e soberania, ou será consolidada como braço tecnológico de vigilância, coerção e guerra.
É essa fronteira que o caso agora expõe com rara nitidez. A guerra ética no coração do poder americano já começou, e seu desfecho interessa muito além de Washington.