A corrida da inteligência artificial pode estar mudando de eixo, do chip mais caro para o software que extrai valor do hardware já existente.
No auge da obsessão global por chips cada vez mais caros, uma startup saída de Stanford aposta que o próximo salto da inteligência artificial virá menos da força bruta e mais da coordenação inteligente do que já está ligado.
A Gimlet Labs acaba de levantar 80 milhões de dólares em uma rodada Série A liderada pela Menlo Ventures, um valor incomum para uma empresa tão jovem e um sinal claro do tamanho do problema que ela promete atacar.
Esse problema tem nome, inferência, a etapa em que modelos já treinados passam a responder perguntas, gerar imagens e executar tarefas, consumindo energia em escala colossal e pressionando data centers no mundo inteiro.
A resposta dominante do mercado, puxada pela Nvidia, tem sido vender unidades de processamento gráfico cada vez mais poderosas e caras. A Gimlet segue por outra trilha e oferece um software capaz de dividir o trabalho de uma aplicação de inteligência artificial entre diferentes tipos de hardware ao mesmo tempo.
A plataforma é descrita pela empresa como a primeira nuvem de inferência multi-silício. Em termos práticos, isso significa usar simultaneamente processadores centrais, unidades de processamento gráfico e sistemas de alta memória para uma mesma tarefa.
“Basicamente, rodamos em qualquer hardware diferente que esteja disponível”, disse o fundador Zain Asgar ao site TechCrunch, fonte original das informações. A frase resume a ambição da empresa, transformar diversidade de máquinas em vantagem operacional.
O ponto central da proposta é simples e poderoso. Nenhum chip resolve sozinho todas as etapas de um agente moderno de inteligência artificial, porque cada fase exige um tipo diferente de recurso.
A inferência propriamente dita pede capacidade de cálculo. A decodificação exige muita memória, enquanto chamadas para ferramentas externas dependem mais da rede e da coordenação entre sistemas.
O parque global de hardware já é heterogêneo por natureza. Novos chips entram em operação, modelos antigos são reaproveitados e data centers convivem com arquiteturas diferentes, mas faltava uma camada de software capaz de orquestrar essa frota sem desperdiçar capacidade.
É aí que a Gimlet tenta se posicionar. Segundo os investidores, a oportunidade está menos em inventar mais uma peça de silício e mais em fazer o que já existe trabalhar em conjunto, com menos ociosidade e mais rendimento.
Os números citados por Asgar ajudam a explicar o apetite do capital de risco. Segundo ele, aplicações de inteligência artificial usam o hardware disponível apenas entre 15% e 30% do tempo, deixando a maior parte da infraestrutura parada.
“Outra forma de pensar nisso: você está desperdiçando centenas de bilhões de dólares porque está deixando recursos inativos”, afirmou o fundador. A meta declarada da startup é tornar as cargas de trabalho de inteligência artificial dez vezes mais eficientes.
A empresa alega que seu software acelera a inferência de três a dez vezes, mantendo o mesmo custo e o mesmo consumo de energia. Também afirma que sua tecnologia consegue “fatiar” um modelo subjacente e executar partes diferentes da rede neural na arquitetura de chip mais adequada para cada etapa.
Não se trata de uma ferramenta voltada ao usuário comum ou ao pequeno desenvolvedor. O alvo são grandes laboratórios de modelos e operadores de data center, justamente onde o custo da ineficiência explode em escala industrial.
A startup já fechou parcerias estratégicas com Nvidia, AMD, Intel, Arm, Cerebras e d-Matrix. O dado é relevante porque mostra que a empresa tenta se encaixar no ecossistema existente em vez de enfrentá-lo apenas no discurso.
O avanço comercial também chama atenção pela velocidade. A Gimlet se lançou publicamente em outubro e já anunciava receitas na casa dos oito dígitos, ou seja, acima de 10 milhões de dólares.
Nos últimos quatro meses, sua base de clientes mais que dobrou. Entre os clientes não revelados publicamente, segundo o texto original, estão um grande fabricante de modelos de inteligência artificial e uma gigante da computação em nuvem.
Esse crescimento acelerado ajudou a atrair a rodada de 80 milhões de dólares. O total levantado pela empresa agora chega a 92 milhões de dólares.
A equipe fundadora também pesa na narrativa de confiança do mercado. Os cofundadores trabalharam juntos na Pixie, empresa de software de observabilidade para Kubernetes adquirida pela New Relic em 2020, poucos meses após seu lançamento.
A lista de investidores-anjo reforça esse capital político e técnico. Estão entre eles Bill Coughran, da Sequoia, o professor de Stanford Nick McKeown, o ex-presidente executivo da VMware Raghu Raghuram e o presidente executivo da Intel, Lip-Bu Tan.
Mas o alcance dessa história vai além de uma rodada generosa no Vale do Silício. A inovação toca no centro de uma disputa geopolítica em que a supremacia na inteligência artificial tem sido tratada, cada vez mais, como sinônimo de acesso a chips de alto desempenho.
Hoje, os Estados Unidos usam sanções para limitar o avanço chinês nessa área, restringindo a venda de unidades de processamento gráfico avançadas. Esse modelo de contenção parte da premissa de que controlar o hardware é controlar o ritmo do desenvolvimento tecnológico.
Se a resposta passar a ser um software capaz de extrair muito mais de qualquer hardware disponível, essa equação começa a mudar. A dependência de um único tipo de componente, controlado por poucas empresas ocidentais, pode diminuir de forma relevante.
Para países do Sul Global e para nações submetidas a restrições tecnológicas, como a própria China, essa possibilidade tem implicações estratégicas evidentes. Em vez de depender exclusivamente da fabricação local de chips de ponta sob embargo, abre-se espaço para uma política de eficiência, integração e orquestração dos recursos já existentes.
É uma mudança de paradigma. A soberania tecnológica deixa de ser pensada apenas como domínio da fundição de silício e passa a incluir a inteligência da camada lógica que organiza toda a infraestrutura computacional.
Há ainda um fator econômico e ambiental impossível de ignorar. O texto original cita uma projeção da McKinsey segundo a qual, mantida a tendência atual, os gastos com data centers podem chegar a quase 7 trilhões de dólares até 2030.
Nesse cenário, cada ganho de eficiência vale muito mais do que uma melhoria técnica marginal. Significa bilhões economizados, menor pressão energética e redução da pegada de carbono de uma indústria que cresce em velocidade muito superior à sua capacidade de se tornar sustentável.
A Gimlet Labs continua sendo uma startup e, como toda startup, ainda precisa provar em escala tudo o que promete. Ainda assim, sua proposta toca exatamente no nervo exposto de uma indústria que cresce sob custos explosivos, gargalos físicos e dependência excessiva de poucos fornecedores.
Enquanto o debate público se concentra na guerra por semicondutores, uma disputa talvez ainda mais decisiva avança na camada do software. Quem conseguir orquestrar melhor o poder de cálculo disperso pelo sistema pode acabar definindo não só o custo da inteligência artificial, mas também sua geografia de poder.
No fim, a aposta dos investidores parece menos excêntrica do que parece à primeira vista. Talvez o futuro da inteligência artificial não pertença apenas a quem fabrica o chip mais poderoso, mas a quem aprende a fazer toda a oficina trabalhar como uma só máquina.


Nenhum comentário ainda, seja o primeiro!