O conflito entre Irã, Estados Unidos e Israel já é descrito por alguns analistas como o primeiro grande episódio de uma nova era de guerras globais. E começou marcado por uma novidade tecnológica decisiva: o uso em grande escala de inteligência artificial no campo de batalha.
Na chamada Operação Epic Fury, sistemas de IA passaram a analisar enormes volumes de dados militares em tempo real. O objetivo é acelerar drasticamente a identificação de alvos e a tomada de decisões de ataque.
Segundo reportagem do Washington Post, o Pentágono atingiu cerca de mil alvos apenas nas primeiras 24 horas de operações. De acordo com o Almirante Brad Cooper, comandante do CENTCOM, as forças americanas atingiram mais de 5.500 alvos nos primeiros dez dias do conflito.
Esse ritmo inédito foi possível graças a plataformas de análise de dados baseadas em inteligência artificial. Elas processam informações de drones, satélites e sensores militares em velocidade impossível para equipes humanas.
No centro desse sistema está o Maven Smart System, desenvolvido pela Palantir. Integrado a modelos avançados de linguagem, como o Claude, da Anthropic, o sistema auxilia militares a interpretar dados, sugerir alvos e avaliar resultados de ataques quase em tempo real.
Segundo Cameron Stanley, diretor de inteligência artificial do Departamento de Defesa, o Maven consolidou em uma única plataforma processos que antes exigiam oito ou nove sistemas diferentes. A chamada “kill chain”, a cadeia de decisões que vai da identificação de um alvo à execução do ataque, foi drasticamente encurtada.
Tradicionalmente, essa cadeia podia levar horas ou dias, pois exigia análise humana detalhada e aprovação em diversas instâncias. Com o uso de IA, o processo pode ser reduzido a minutos ou até segundos.
Pesquisadores alertam, porém, que essa aceleração levanta sérias preocupações sobre controle humano e responsabilidade legal. Um exemplo emblemático é o bombardeio da escola primária feminina Shajareh Tayyebeh, em Minab, no sul do Irã, no primeiro dia da guerra.
O ataque matou entre 165 e 180 pessoas, a maioria crianças de 7 a 12 anos. Investigações preliminares dos próprios Estados Unidos indicam que o ataque resultou de informações de inteligência desatualizadas, que identificavam a área como parte de uma instalação militar.
Paralelamente ao conflito, o governo Trump rompeu com a Anthropic, desenvolvedora do Claude. A empresa insistiu que seus modelos não fossem usados para armamento totalmente autônomo e vigilância em massa, e processou o governo americano em resposta.
Segundo o Almirante Cooper, humanos continuam tomando as decisões finais sobre o que atacar. Ainda assim, especialistas como Craig Jones, da Universidade de Newcastle, alertam que a falta de regulamentação para o uso militar de IA torna iminente a proliferação dessas tecnologias de guerra.
Com informações do Washington Post, Al Jazeera, The Register e Nature.


Nenhum comentário ainda, seja o primeiro!