A guerra da inteligência artificial entrou na fase decisiva: quem dominar o chip, a energia e a nuvem passa a mandar no futuro.
Em Austin, no Texas, a Amazon desenvolve em silêncio a ofensiva mais ambiciosa já feita contra o domínio da Nvidia na infraestrutura da inteligência artificial.
A aposta tem nome, escala e alvo: o chip Trainium, criado pela Amazon Web Services para reduzir custos e disputar o coração computacional da nova economia digital.
A dimensão dessa investida foi revelada em visita do TechCrunch ao centro de desenvolvimento de chips da empresa, onde a Amazon expôs um projeto de quase uma década que já atraiu clientes como OpenAI, Anthropic e Apple.
O movimento ocorre num momento decisivo para o setor. A OpenAI acaba de fechar com a Amazon Web Services um acordo de 50 bilhões de dólares, e parte central desse pacto é o compromisso da Amazon de entregar à empresa 2 gigawatts de capacidade computacional baseada em chips Trainium.
O recado do mercado é claro. A própria Amazon e a Anthropic já consomem chips Trainium em ritmo superior à capacidade atual de produção da companhia.
No centro da promessa está uma variável que pode redefinir a corrida da inteligência artificial: custo. Segundo a Amazon, os novos servidores equipados com Trainium3 custam até 50% menos para operar, com desempenho comparável ao de servidores tradicionais baseados em unidades de processamento gráfico.
Isso muda a conta de um setor que processa trilhões de tokens por dia. Numa indústria em que cada ganho de eficiência pesa bilhões, uma redução desse tamanho deixa de ser detalhe técnico e vira vantagem estratégica.
Kristopher King, diretor do laboratório, resumiu o tamanho da ambição ao falar do Bedrock, serviço da Amazon Web Services que permite a empresas construir aplicações de inteligência artificial. Segundo ele, a base do Bedrock é o Trainium, e a expansão da clientela acompanha a velocidade com que a empresa consegue liberar nova capacidade.
King foi além e sugeriu o horizonte que a Amazon enxerga para esse negócio. Disse que o Bedrock pode um dia ser tão grande quanto o Elastic Compute Cloud, o serviço de computação em nuvem mais conhecido da companhia.
Mas a disputa não se resume a vender processamento mais barato. O grande escudo histórico da Nvidia sempre foi o custo de migração, porque modelos e aplicações desenhados para sua arquitetura exigem trabalho pesado de adaptação quando são levados para plataformas concorrentes.
É exatamente nesse ponto que a Amazon afirma ter avançado. Mark Carroll, diretor de engenharia, disse que o Trainium agora suporta PyTorch, o framework de código aberto mais popular no desenvolvimento de modelos de inteligência artificial.
Segundo Carroll, isso inclui milhares de modelos hospedados no Hugging Face, principal biblioteca aberta do setor. Nas palavras dele, a transição exigiria basicamente a troca de uma linha de código, seguida de recompilação e execução no Trainium.
Se essa promessa se confirmar em escala, o efeito sobre o mercado pode ser profundo. O principal obstáculo técnico à fuga do ecossistema da Nvidia deixaria de ser uma muralha e passaria a ser apenas um custo de oportunidade.
A lógica por trás da operação é velha conhecida de quem acompanha a história da Amazon. A empresa identifica um insumo essencial consumido em massa por seus clientes, internaliza a produção e depois usa integração e escala para competir agressivamente em preço.
Foi assim com logística, com infraestrutura de servidores e agora com o núcleo da inteligência artificial. O chip, nesse desenho, não é um produto isolado, mas a peça central de uma cadeia vertical que a companhia tenta controlar de ponta a ponta.
A Amazon Web Services projeta o circuito, o servidor que abriga o chip, o sistema de resfriamento líquido, os comutadores de rede Neuron que conectam os processadores e até o sistema de virtualização Nitro. O objetivo é simples e brutal: extrair o máximo de eficiência possível em desempenho, consumo de energia e custo operacional.
O laboratório de Austin é o cérebro dessa engrenagem. A estrutura nasceu da compra da israelense Annapurna Labs por 350 milhões de dólares em 2015, aquisição que deu à Amazon a base técnica para construir uma divisão própria de semicondutores.
A herança da Annapurna continua visível no local. O logotipo da empresa aparece por todo o escritório instalado em uma área nobre de Austin, frequentemente apelidada de Vale do Silício da cidade.
A própria evolução do Trainium ajuda a explicar para onde o mercado está indo. O chip foi concebido inicialmente para treinamento de modelos, etapa em que a inteligência artificial aprende padrões a partir de grandes volumes de dados, mas agora também está sendo otimizado para inferência.
Inferência é a fase em que o modelo já treinado responde perguntas, gera texto, cria imagens ou executa tarefas em tempo real. É justamente essa etapa que hoje concentra um dos maiores gargalos de custo e desempenho da indústria.
Segundo a Amazon, o Trainium2 já processa a maior parte do tráfego de inferência no Bedrock. O Trainium3, lançado em dezembro, promete elevar ainda mais a relação entre preço e potência graças aos comutadores Neuron, que permitem comunicação em malha entre os chips e reduzem a latência.
Um dos sinais mais curiosos de reconhecimento veio da Apple, empresa notoriamente econômica em elogios públicos a fornecedores. Em 2024, seu diretor de inteligência artificial destacou o Graviton, processador de baixo consumo baseado em ARM, e o Inferentia, chip voltado à inferência, além de mencionar o Trainium, então ainda em ascensão.
Agora a Amazon também anunciou parceria com a Cerebras Systems para integrar o chip de inferência da empresa a servidores Trainium. A promessa divulgada é de desempenho superpoderoso com baixa latência, reforçando a tentativa de ampliar o apelo da plataforma.
Esse avanço corporativo precisa ser lido dentro de um contexto maior. A dependência global das unidades de processamento gráfico da Nvidia criou um gargalo para o desenvolvimento da inteligência artificial, com efeitos especialmente duros sobre países do Sul Global e sobre atores sem acesso privilegiado ao capital das gigantes americanas.
Escassez e preços elevados funcionam como barreira de entrada. Quando o custo da infraestrutura explode, a inovação fica concentrada em poucos conglomerados capazes de comprar escala, energia e prioridade na fila de fornecimento.
Nesse sentido, o surgimento de uma alternativa viável pode ampliar competição e pressionar preços para baixo. Ainda que a alternativa também venha dos Estados Unidos, ela abre ao menos uma fresta num mercado excessivamente concentrado.
Mas a mudança não elimina a dependência, apenas a reorganiza. A disputa deixa de ser apenas entre Nvidia e seus compradores e passa a se concentrar numa guerra entre Amazon Web Services, Microsoft Azure e Google Cloud pelo controle do pacote completo da inteligência artificial.
A Amazon não quer vender apenas capacidade computacional. Quer vender chip, servidor, software, rede, virtualização e plataforma como um sistema fechado, capaz de transformar sua arquitetura em padrão de fato.
Para o Brasil, e para qualquer projeto de soberania tecnológica articulado com o Sul Global, essa transformação traz oportunidade e risco ao mesmo tempo. Se os custos caírem, universidades, centros de pesquisa e empresas nacionais podem ganhar acesso mais barato a ferramentas avançadas de computação em nuvem.
Mas o preço da entrada pode ser uma nova camada de subordinação estrutural. A dependência deixa de estar concentrada num componente específico e migra para um ecossistema inteiro, verticalizado e controlado por uma única corporação.
O laboratório de Austin, com vista panorâmica para a cidade, é mais do que um centro de engenharia. É uma sala de comando onde se desenha a próxima arquitetura da dependência tecnológica global.
A aposta da Amazon é objetiva e de longo prazo. No futuro da inteligência artificial, não bastará ter os melhores modelos; vencerá quem controlar o silício, a energia e a nuvem que fazem esses modelos funcionar.