O grande jogo da geopolítica hoje passa pelo domínio da inteligência artificial.
Para isso, uma das tecnologias mais estratégicas e desafiadoras é a produção de chips especializados capazes de executar modelos de IA em escala global.
Os Estados Unidos e a China formam hoje os dois principais polos dessa disputa tecnológica.
Taiwan, Coreia do Sul e Japão também ocupam posições centrais, sobretudo na produção industrial de semicondutores, embora não sejam os protagonistas no desenvolvimento de plataformas e softwares de inteligência artificial.
Taiwan é hoje a líder mundial na fabricação de chips, especialmente para computadores e celulares.
Mas os chips mais avançados voltados para servidores de inteligência artificial ainda são dominados por empresas americanas, em particular pela Nvidia.
A gigante americana continua avançando nesse setor e prepara agora uma nova geração de processadores voltados para a próxima etapa da corrida global da IA.
A Nvidia está se preparando para lançar um novo chip projetado para acelerar respostas de inteligência artificial, rompendo parcialmente com sua estratégia tradicional de usar o mesmo tipo de processador para múltiplas tarefas.
O anúncio deve ser feito pelo presidente da empresa, Jensen Huang, durante a conferência de desenvolvedores GTC, prevista para a próxima semana.
O novo chip será focado em “inferência”, etapa em que os modelos de IA já treinados passam a gerar respostas, executar códigos ou operar assistentes digitais.
Até agora, os chips da Nvidia eram usados tanto para treinar modelos de inteligência artificial quanto para executá-los em aplicações práticas.
O novo produto surge poucos meses depois de um acordo estimado em cerca de US$ 20 bilhões, no qual a Nvidia contratou os fundadores da startup Groq, especializada em unidades de processamento voltadas à linguagem.
A expectativa é que a empresa apresente uma nova LPU (Language Processing Unit) baseada na tecnologia da Groq.
Esse processador deverá trabalhar ao lado da futura GPU de alto desempenho chamada Vera Rubin, ampliando a família de chips voltados para diferentes aplicações de IA.
A iniciativa ocorre em um momento em que a Nvidia enfrenta novos concorrentes, incluindo startups e também grandes empresas de tecnologia que desenvolvem chips próprios.
Nesta semana, por exemplo, a Meta anunciou uma nova família de quatro processadores voltados especificamente para inferência de IA.
Durante os últimos três anos, a Nvidia tornou-se a empresa mais valiosa do mundo, com valor de mercado estimado em US$ 4,5 trilhões.
Essa valorização ocorreu porque suas GPUs se tornaram a espinha dorsal da indústria de inteligência artificial generativa, responsável por treinar modelos como os que alimentam sistemas como o ChatGPT.
Jensen Huang sempre defendeu a ideia de que um único sistema poderia servir tanto para treinamento quanto para execução de modelos.
Mas o avanço de aplicações mais sofisticadas de IA, como agentes automáticos de programação e sistemas complexos de raciocínio, começa a exigir chips cada vez mais especializados.
Outro fator importante é o custo e a escassez da chamada HBM (High Bandwidth Memory), memória de altíssima velocidade usada nos chips mais avançados da Nvidia.
Fabricantes como SK Hynix e Micron têm dificuldades para atender à demanda crescente provocada pela explosão do setor de inteligência artificial.
O novo chip inspirado na tecnologia da Groq deve utilizar SRAM (static random access memory) em vez da memória dinâmica usada na HBM.
Esse tipo de memória é mais disponível no mercado e pode acelerar tarefas de raciocínio e geração de respostas em sistemas de IA.
Analistas do Bank of America estimam que, até 2030, o mercado de data centers voltados à inteligência artificial pode atingir US$ 1,2 trilhão.
Nesse cenário, a inferência — a execução prática dos modelos — deverá representar cerca de 75% dos gastos, contra aproximadamente 50% atualmente.
Além disso, chips especializados para inferência têm outra vantagem importante: podem ser instalados em data centers tradicionais.
Muitos centros de dados existentes não conseguem suportar as GPUs mais avançadas da Nvidia, que exigem sistemas complexos de resfriamento líquido.
Segundo analistas do setor, o futuro da infraestrutura de inteligência artificial tende a ser mais diversificado.
A era em que um único tipo de chip dominava todos os tipos de processamento pode estar chegando ao fim.