Em 1º de Maio, oito gigantes norte-americanas da tecnologia assinaram com o Pentágono acordos que permitem o uso de suas ferramentas para matar e espionar. O que isso revela sobre os robôs “inteligentes” com que você se habitua um pouco mais a cada dia

Imagem: Reprodução/Center for Public Integrity

Quando o governo dos Estados Unidos decidiu, em fevereiro, que a Anthropic era um risco de cadeia de suprimentos, repetiu pela primeira vez contra uma empresa nacional uma designação até então reservada a adversários estrangeiros. Quando, dois meses depois, ensaiou trazê-la de volta apenas para travar a expansão de seu modelo mais avançado dias depois, mostrou que o veredicto inicial nunca foi sobre risco. Era sobre quem decide o que se pode fazer com um modelo de IA de fronteira. Depois de entrar em uma contenda judicial com a criadora do chatbot Claude, o Departamento de Defesa busca agora excluir de vez a empresa enquanto traz oficialmente para o front oito concorrentes.

Com um Estado em modo de guerra cultural permanente, ter as principais criadoras de modelos de IA generativa trabalhando juntas para o governo torna mais fácil substituir uma ou outra peça no tabuleiro sem passar por novas saias justas, usando o redirecionamento dos contratos para concorrentes como arma de convencimento. Na arte da guerra trumpista, onde IA de fronteira é vista como ativo de segurança nacional, todo o esforço vale a pena para manter os amigos perto e os inimigos mais perto ainda.

A doutrina por trás dessa nova arquitetura tem conceito administrativo. Chama-se “all lawful purposes” e foi exatamente o ponto que rompeu a relação de Washington com a Anthropic em fevereiro. A empresa exigia ressalvas explícitas contra o uso de Claude em armas totalmente autônomas e em vigilância de massa doméstica. Diante da recusa do CEO Dario Amodei em ceder, o Pentágono declarou a Anthropic um “supply chain risk”, ou “risco à cadeira de suprimentos”, categoria historicamente reservada a adversários estrangeiros. No dia 1º de maio, oito gigantes da tecnologia (Google, OpenAI, Microsoft, Amazon Web Services, Nvidia, SpaceX, Reflection AI e Oracle) firmaram acordos para implantar IA em redes classificadas Impact Level 6 e 7 sob a fórmula “lawful operational use”, confirmando a cláusula como padrão de contratação. A Anthropic está explicitamente fora da lista. O Pentágono virou redator das regras gerais de IA para a máquina federal.

A escala financeira da operação explica a atração exercida pelo Departamento de Defesa sobre as empresas. Enquanto as big techs devem despejar cerca de US$ 600 bilhões em infraestrutura de IA em 2026, o orçamento de defesa do mesmo ano reservou US$ 54 bilhões só para IA e autonomia, com aumento de mais de cem vezes previsto para o recém-criado Defense Autonomous Warfare Group em 2027. A convergência não é metáfora. Trata-se do coração financeiro da relação. O Pentágono é simultaneamente cliente, regulador, fonte de credenciamento de segurança e distribuidor de prestígio geopolítico para um setor que precisa, por demanda de investimentos em capital, transformar contratos governamentais em receita estrutural. Pergunte à Palantir.

Um estranho no ninho

A empresa de Amodei foi sucessivamente punida, considerada indispensável e abandonada mais uma vez. Perdeu investidores como o fundo 1789 Capital, ligado a Donald Trump Jr., viu concorrentes correrem para ocupar seu espaço, mas até sexta-feira a National Security Agency (NSA) seguiu incorporando o Mythos, modelo de fronteira lançado em abril, e o Pentágono nunca deixou de operar Claude na guerra com o Irã. Liminares e recursos travaram batalha jurídica em torno da designação de “supply chain risk”, sustentada em última instância pelo argumento da segurança nacional. A reaproximação ensaiada por uma ação executiva da Casa Branca para “salvar a face e trazê-los de volta” coexiste com sinais de que o atrito persiste. Em audiência no Senado em 30 de abril, o secretário de Defesa, Pete Hegseth, chamou Amodei de “lunático ideológico” e comparou a posição da Anthropic a de “uma Boeing que nos vendesse aviões e dissesse em quem podemos atirar”. Na véspera, a Casa Branca havia rejeitado a expansão do acesso ao Mythos de cerca de cinquenta para cento e vinte instituições. Trump diz que a empresa está “se ajeitando”. Apesar do desencontro de declarações, tudo leva a crer que a barganha continua aberta.

A embalagem retórica desse arranjo também merece atenção. O subsecretário Emil Michael, ex-executivo do Uber convertido em diretor de Tecnologia do Pentágono, batizou a IA militar como o próximo “Destino Manifesto” dos EUA. O secretário Pete Hegseth, no vídeo de lançamento do GenAI.mil, declarou que o futuro da guerra americana se escreve “A-I”. Em janeiro, ele contratou o Grok, da xAI de Elon Musk, cunhando o termo “woke AI” como antônimo, em referência velada à Anthropic. Não se trata apenas de armar a tropa e sim de enquadrar a fronteira da IA como território cultural disputado, em que cautela ética é traduzida como suspeição ideológica. A Anthropic foi punida, em parte, por levar a sério o próprio discurso “safety-first” que justificou seu nascimento, em 2021, por dissidentes da OpenAI. O recado para o setor é claro. Defender restrições de uso virou gesto político, não técnico.

Amargo regresso

O retorno do Google na relação com o Pentágono ilumina o recado por outro ângulo, o do fracasso do compliance interno como freio. Em dezembro, o Departamento de Defesa lançou o GenAI.mil, plataforma destinada a três milhões de militares, civis e contratados, tendo o Gemini for Government como motor inaugural. Em abril, o Google assinou expansão do contrato para redes classificadas, horas depois de mais de seiscentos funcionários, incluindo diretores e pesquisadores seniores do DeepMind, enviarem carta aberta ao CEO Sundar Pichai pedindo a recusa do acordo. A mobilização foi simplesmente atropelada pela velocidade da assinatura. Os organizadores usaram a fórmula que talvez se torne refrão. “Maven não acabou”.

A referência histórica é incontornável. Em 2018, cerca de quatro mil funcionários do Google assinaram petição contra o Project Maven e a empresa deixou o contrato com o Pentágono expirar, adotando “AI Principles” que vedavam armas e vigilância. A Palantir assumiu o trabalho. Em fevereiro do ano passado, o Google apagou silenciosamente esses compromissos, com Demis Hassabis citando a “competição global pela liderança em IA”. Naquele momento, a IA era experimento militar contestável; agora, é ativo geopolítico declarado. A capacidade de mobilização que matou o Maven evaporou. O ciclo de captura do que se poderia chamar de complexo IA-bélico-industrial se fechou.

Sem novidade no front

A história tem precedentes claros para este realinhamento. Em momentos de salvamento direto, o Estado garantiu empréstimos privados para evitar o colapso de fornecedores estratégicos, como na Lockheed em 1971 e na Boeing em 2020. Em momentos de redesenho, forçou a consolidação inteira do setor, como na “Última Ceia” de julho de 1993, quando o secretário de Defesa reuniu CEOs no Pentágono e disparou a fusão que reduziu o número de empresas-prime de 51 para cinco. Em momentos de resistência social ou interna, raramente recuou. A Dow Chemical manteve o napalm até perder licitação em 1969, a Honeywell só desinvestiu das munições cluster após mais de duas décadas de pressão e mudança regulatória e a Microsoft preservou o contrato IVAS de quase meio bilhão de dólares contra carta aberta de funcionários em 2019. A exceção foi o Project Maven em 2018, neutralizada nos anos seguintes. O padrão é estrutural. Quando uma tecnologia é considerada estratégica, o Estado mantém a empresa no orçamento mesmo contra a lógica de mercado, contra a vontade da empresa ou contra o protesto de seus funcionários.

O caso Anthropic é uma Lockheed invertida em era de fronteira tecnológica. Em 1971, o Estado se viu obrigado a manter empresa que queria sair. Em 2026, o Estado pode se ver obrigado a tolerar empresa que não quer sair, mas quer ditar termos de uso. Mesmo com o presidente Donald Trump postando ordem para imediatamente cessar o uso da tecnologia, o Pentágono seguia rodando o Claude na guerra com o Irã. A NSA usava o Mythos. A barganha mudou de natureza. Na era das primes consolidadas era sobre dinheiro e capacidade industrial, agora é sobre regras contratuais. O Pentágono tenta replicar com as oito escolhidas o arranjo que construiu nas últimas três décadas com Lockheed Martin e Boeing, fornecedores grandes, dependentes e sem cláusulas que limitem o que o cliente pode fazer com o produto. A defesa pública dessa lógica foi feita pelo próprio Hegseth diante do Senado com a comparação reveladora. Em suas palavras: “Seria como a Boeing nos vendendo aviões e dizendo em quem podemos atirar”. A imagem é eficaz, mas a Boeing nunca precisou dessa cláusula porque vendia plataformas finitas, com função delimitada e sem aplicação civil. A Anthropic não quer definir em quem atirar. Deseja vender uma plataforma cuja única ressalva contratual é não ser usada em armas totalmente autônomas e em vigilância de massa doméstica.

Oppenheimer

A retórica do “novo Projeto Manhattan” com IA, entoada pela comissão bipartidária do Congresso em novembro de 2024 e endossada pelo secretário de Energia de Trump no início de 2025, é menos um plano de ação do que uma fantasia compensatória. O ex-CEO do Google Eric Schmidt, que ajudou a construir o enquadramento da IA como questão de segurança nacional ao presidir a National Security Commission on Artificial Intelligence entre 2019 e 2021, hoje alerta no paper Superintelligence Strategy que tentar replicar o programa de fabricação da bomba atômica de Oppenheimer com modelos de fronteira em IA provocaria retaliação chinesa preventiva e desestabilizaria o equilíbrio que o programa diz proteger.

Nos anos 1940, o Projeto Manhattan exigia objetivo único, controle centralizado e sigilo aplicável, condições que a IA simplesmente não reproduz, com talento que migra entre empresas privadas, papers que atravessam o Pacífico em horas e investimento anual que excede qualquer rubrica orçamentária concebível para um programa estatal. O arranjo multivendor que o Pentágono está construindo é o que sobra quando o Manhattan se mostra estruturalmente impossível de ser replicado em IA. É um Los Alamos sem Los Alamos, executado por cláusula contratual em vez de cerca elétrica.

Além da linha vermelha

Há, porém, uma diferença qualitativa entre os fornecedores históricos do Pentágono e as big techs de IA que muda a natureza do que está sendo contratado. Lockheed, Boeing, Raytheon, Dow Chemical e Honeywell entregavam ao Departamento de Defesa produtos finitos, com aplicação militar delimitada e cadeia produtiva separada da vida civil. Um míssil Poseidon não toca a vida cotidiana do cidadão comum, um galão de napalm não roteia conversas privadas, uma munição cluster não decide qual notícia chega ao eleitor. O dano dessas tecnologias era trágico, mas geograficamente confinado ao teatro de guerra. E a empresa fornecedora podia ser substituída sem que o tecido informacional do país sofresse abalo. A barreira ética entre uso civil e uso militar era nítida e foi exatamente essa nitidez que permitiu mobilizações como a campanha contra o napalm da Dow ou as duas décadas do Honeywell Project terem alvo claro.

As empresas de IA generativa operam em outro registro. Com pequenas alterações, os mesmos modelos que rodam em redes classificadas do Pentágono respondem a perguntas de estudantes, redigem contratos comerciais, mediam atendimento ao cliente, sugerem diagnósticos médicos e, cada vez mais, intermediam o acesso à informação pública. Quando o Google entrega o Gemini ao GenAI.mil sob cláusula de “qualquer propósito governamental lícito” não está vendendo um produto militar específico, está abrindo a mesma infraestrutura cognitiva que serve bilhões de usuários civis para uso em redes não conectadas à internet (air-gapped) onde o controle público é inexistente por definição. O Claude que opera na guerra com o Irã é o mesmo Claude que escreve códigos para programadores em Buenos Aires ou São Paulo. A fronteira entre civil e militar, entre nacional e estrangeiro, entre soberano e transnacional, deixa de ser geográfica e passa a ser contratual, definida em cláusulas a que o público não tem acesso.

Isso afeta a soberania informacional não apenas dos Estados Unidos, mas de qualquer país cujos cidadãos, governos, jornalistas e empresas dependam dessas mesmas ferramentas. Uma munição cluster fabricada nos subúrbios de Minneapolis não tinha como modular o discurso público de um país inteiro, um modelo de fronteira treinado para servir tanto a um adolescente brasileiro quanto a um analista da NSA tem. É essa indiferenciação entre infraestrutura civil global e arsenal militar nacional que torna a captura atual mais grave do que qualquer episódio anterior do complexo industrial-militar, e que torna a recusa da Anthropic em ceder na cláusula contratual menos uma birra ética do que o último rastro de uma fronteira que está sendo apagada.

Até o último homem

A peça que articula o arranjo atual é o conceito multivendor. No dia 1º de maio, ao formalizar os acordos com as oito empresas, o Pentágono comunicou pretender construir “uma arquitetura que evite a dependência de fornecedor único”, nas palavras de Cameron Stanley, chefe digital e de IA do departamento. A frase parece banalidade da burocracia, mas é doutrina política. Distribuir contratos entre oito empresas sob a mesma cláusula contratual permite ao Estado disciplinar cada uma delas pela ameaça concreta de redirecionamento do orçamento. Quando a Anthropic recusou, a OpenAI assinou. Quando o cerco se fechou em maio, somaram-se Microsoft, Amazon, Nvidia, SpaceX, Reflection AI e Oracle. Quando convém trazer a Anthropic de volta, basta um aceno presidencial. Nenhuma empresa tem poder de barganha individual. Todas operam sob o mesmo enquadramento jurídico. O Pentágono fragmentou o setor para capturá-lo inteiro.

O resultado é uma arquitetura nova de relacionamento entre Estado e capital tecnológico estadunidense. Não é a militarização clássica do Vale do Silício dos anos Eisenhower, em que contratos do DARPA financiavam pesquisa pura. Tampouco é o civismo distante do início dos anos 2010, em que o Google podia se permitir “don’t be evil” e ainda assim valer trilhões. É algo intermediário e mais opaco. Contratos grandes o bastante para condicionar estratégia corporativa, mas dispersos o bastante para nunca aparecer como dependência. Princípios éticos foram apagados dos documentos corporativos no momento em que ficaram caros ou passaram a comprometer novas fontes de receita. Funcionários se mobilizam, mas decisões saem das mãos deles. Tribunais limitam ações executivas, mas mantêm designações em nome da “segurança nacional”.

Há uma camada financeira nessa arquitetura que também merece uma nota. As big techs de IA queimam caixa em escala que não tem paralelo no setor de tecnologia, com prejuízos operacionais bilionários com nenhuma das líderes projetando lucratividade antes do final da década. Em outubro do ano passado, o Fundo Monetário Internacional e o Banco da Inglaterra alertaram publicamente sobre o risco de uma “bolha de IA” comparável à dotcom de 2000. Nesse cenário, fechar contrato com o Pentágono deixa de ser apenas receita estrutural e vira algo mais valioso, salvo-conduto. A Lockheed em 1971, salva pelo Emergency Loan Guarantee Act porque era contratada estratégica do Departamento de Defesa, foi a invenção concreta do “too big to fail” anos antes de o termo virar jargão financeiro na crise de 2008.

Quando uma empresa de IA assina cláusula de “lawful operational use” em rede classificada Impact Level 7, ela não está apenas vendendo um modelo, está se tornando estrutura crítica de segurança nacional. Se a bolha estourar, e o histórico do setor sugere que estourará, as oito que assinaram em 1º de maio terão argumento jurídico e político para resgate federal que a Anthropic, expulsa do clube, talvez não tenha. A captura, vista por esse ângulo, é também um seguro reverso. O Pentágono comprou alinhamento ideológico e as empresas compraram garantia de socorro implícita no contrato.

A definição do que é “uso lícito” virou objeto de disputa entre advogados de empresas e procuradores do Pentágono. “Quando você regula por contrato”, disse Jessica Tillipman, decana associada de aquisições governamentais na George Washington Law School, “está criando uma quantidade enorme de poder na agência que negociou esse contrato, e isso se torna efetivamente a política de fato da administração”. Ferramentas que três anos atrás se vendiam como assistentes de pesquisa hoje operam em redes classificadas, dentro de guerras ativas, sob cláusulas que o público não pode ler. Quem ainda quiser falar de ética da IA daqui para frente terá que começar lendo dispositivos contratuais.

Sem publicidade ou patrocínio, dependemos de você. Faça parte do nosso grupo de apoiadores e ajude a manter nossa voz livre e plural: apoia.se/outraspalavras

 Publicado originalmente por: 

Comentário(s)

-Os comentários reproduzidos não refletem necessariamente a linha editorial do blog
-São impublicáveis acusações de carácter criminal, insultos, linguagem grosseira ou difamatória, violações da vida privada, incitações ao ódio ou à violência, ou que preconizem violações dos direitos humanos;
-São intoleráveis comentários racistas, xenófobos, sexistas, obscenos, homofóbicos, assim como comentários de tom extremista, violento ou de qualquer forma ofensivo em questões de etnia, nacionalidade, identidade, religião, filiação política ou partidária, clube, idade, género, preferências sexuais, incapacidade ou doença;
-É inaceitável conteúdo comercial, publicitário (Compre Bicicletas ZZZ), partidário ou propagandístico (Vota Partido XXX!);
-Os comentários não podem incluir moradas, endereços de e-mail ou números de telefone;
-Não são permitidos comentários repetidos, quer estes sejam escritos no mesmo artigo ou em artigos diferentes;
-Os comentários devem visar o tema do artigo em que são submetidos. Os comentários “fora de tópico” não serão publicados;

Postagem Anterior Próxima Postagem

ads

ads