A nova meta da OpenAI expõe que a disputa pela inteligência artificial já não é só tecnológica, mas também geopolítica, energética e civilizatória.
A OpenAI decidiu transformar a automação da ciência em seu próximo grande objetivo.
Em entrevista ao MIT Technology Review, o cientista-chefe Jakub Pachocki afirmou que construir um "pesquisador de IA" autônomo virou o novo norte da empresa.
Se esse plano avançar, a companhia não quer apenas acelerar tarefas, mas intervir diretamente no processo de formular hipóteses, testar ideias e produzir conhecimento.
Segundo Pachocki, a proposta é reunir em um mesmo projeto várias frentes de pesquisa hoje tratadas em paralelo. Entre elas estão os modelos de raciocínio e os estudos de interpretabilidade.
A OpenAI também já trabalha com um cronograma para essa ambição. Até setembro, a meta é criar um "estagiário de pesquisa autônomo" capaz de lidar com um pequeno número de problemas específicos.
Esse sistema inicial funcionaria como etapa preparatória para algo maior. O plano mais amplo é chegar, em 2028, a um sistema multiagente completo.
Na prática, a empresa quer desenvolver uma inteligência artificial que faça mais do que responder comandos ou executar rotinas delimitadas. A aposta é em um sistema capaz de propor hipóteses, desenhar experimentos, analisar resultados e avançar sozinho em problemas científicos complexos.
É uma mudança de escala e de pretensão. Em vez de apenas apoiar pesquisadores humanos, a OpenAI passa a mirar a automação de uma das atividades mais estratégicas da vida moderna: a própria descoberta científica.
Esse movimento não surge no vazio. Ele coincide com uma reconfiguração interna da empresa, que vem cortando projetos paralelos para concentrar recursos no núcleo de sua estratégia.
Ao mesmo tempo, a OpenAI trabalha na criação de um "super app" que uniria o ChatGPT, um navegador web e uma ferramenta de programação em uma única plataforma. A combinação desses esforços sugere um desenho mais ambicioso de poder tecnológico, no qual pesquisa, uso cotidiano e infraestrutura digital passam a ser integrados sob o mesmo comando corporativo.
A corrida pela automação total da inteligência, porém, não é apenas um capítulo da competição entre empresas do Vale do Silício. Ela se desenrola dentro de uma disputa geopolítica cada vez mais explícita, em que inteligência artificial, chips, servidores e energia são tratados como ativos estratégicos.
Nesta mesma semana, o Departamento de Justiça dos Estados Unidos acusou o cofundador da Super Micro, gigante de servidores, de contrabandear tecnologia de inteligência artificial para a China. A empresa aparece em terceiro lugar na lista da Fortune das companhias que mais crescem no mundo.
O episódio ajuda a iluminar a lógica mais ampla em curso. Washington tenta restringir ao máximo o acesso chinês aos componentes de ponta necessários para o desenvolvimento de uma inteligência artificial soberana.
No centro dessa disputa está a computação, isto é, a capacidade bruta de processamento que sustenta os modelos mais avançados. Quem controla chips, servidores e infraestrutura computacional controla também o ritmo do desenvolvimento tecnológico.
Do outro lado dessa mesma tensão, o Pentágono vem manifestando preocupação com a presença de funcionários estrangeiros em empresas de inteligência artificial. Autoridades americanas citam especificamente empregados chineses como risco de segurança.
A Anthropic, rival direta da OpenAI, também entrou nesse campo de pressão. Seus limites éticos foram questionados pelo Departamento de Defesa dos Estados Unidos, interessado no uso de inteligência artificial para análise massiva de dados.
A linguagem da "segurança nacional" aparece, assim, como justificativa recorrente para políticas de contenção tecnológica. Na prática, ela também serve para proteger posições dominantes e preservar o monopólio sobre os ganhos econômicos, militares e científicos da revolução da inteligência artificial.
Ao mesmo tempo, os próprios Estados Unidos exploram ativamente aplicações militares e de espionagem com inteligência artificial generativa, como revelou o MIT Technology Review. O discurso do risco, portanto, convive com uma política agressiva de apropriação estratégica da tecnologia.
Há ainda um limite material que costuma receber menos atenção do que merece. O cenário global de energia começa a pesar sobre o futuro da inteligência artificial em escala industrial.
A Organização Mundial do Comércio alertou que os preços elevados do petróleo podem comprometer o boom da inteligência artificial. O temor é que um choque energético prolongado pressione ainda mais os custos de operação dos data centers que alimentam esses sistemas.
A pegada energética da inteligência artificial já é gigantesca. E, no modelo atual, ela levanta dúvidas sérias sobre sustentabilidade, custo e viabilidade de longo prazo.
Esse ponto costuma ser empurrado para o rodapé do debate público. Mas a verdade é simples: não existe supremacia digital sem eletricidade abundante, infraestrutura pesada e cadeias globais de suprimento funcionando sob enorme pressão.
É nesse contexto mais amplo que o anúncio da OpenAI ganha peso real. Não se trata apenas de mais um produto ou de uma melhoria incremental em assistentes digitais.
O que está em jogo é a tentativa de construir uma máquina capaz de participar diretamente da produção de conhecimento novo. Quem controlar esse tipo de ferramenta poderá influenciar prioridades científicas, acelerar setores inteiros e definir quais problemas merecem investimento e solução.
A promessa de um pesquisador autônomo, por isso, abre questões profundas sobre trabalho intelectual, autoria científica e concentração de poder. Se a descoberta automatizada ficar nas mãos de uma única empresa privada, vinculada aos interesses estratégicos de um Estado, a ciência corre o risco de se tornar ainda mais subordinada à lógica da competição geopolítica e do lucro.
Enquanto isso, outras frentes da inteligência artificial revelam contradições importantes. Dois novos estudos sobre drogas psicodélicas, como a psilocibina dos cogumelos, para tratar depressão e transtorno de estresse pós-traumático mostraram como o campo é mais complexo do que a euforia inicial sugeria.
A Meta, por sua vez, substitui moderadores humanos por inteligência artificial em suas plataformas, retomando uma aposta problemática do passado. E startups já recrutam "valentões de IA" para testar os limites e a paciência dos principais chatbots do mercado.
O ecossistema oscila, assim, entre promessas grandiosas e improvisos reveladores. De um lado, vende-se a ideia de máquinas capazes de revolucionar a ciência; de outro, multiplica-se a automação de problemas que o próprio setor ajudou a criar.
A visão de um pesquisador de inteligência artificial totalmente autônomo funciona, nesse sentido, como espelho de uma época. Ela reflete tanto a ambição de substituir parcelas centrais da criatividade humana quanto a urgência de conquistar vantagem decisiva numa guerra fria tecnológica que já está em andamento.
Para o Sul Global, incluindo o Brasil, o recado é claro. A dependência de sistemas fechados, moldados pela rivalidade entre Estados Unidos e China, pode consolidar uma nova forma de colonialismo digital.
Soberania tecnológica não significa recusar a inteligência artificial. Significa compreender seus limites, regular seus usos e desenvolver capacidades próprias para que nossas sociedades não se tornem apenas consumidoras passivas de ferramentas produzidas sob interesses alheios.
O norte da OpenAI está definido. A questão, agora, é saber se o resto do mundo aceitará apenas seguir esse mapa ou se tentará desenhar o seu próprio.


Nenhum comentário ainda, seja o primeiro!