O aplicativo caiu, mas a engrenagem dos vídeos sintéticos segue operando com risco alto e freios fracos.
A OpenAI decidiu encerrar o aplicativo social Sora apenas seis meses após o lançamento, segundo informação publicada pelo TechCrunch.
O fechamento expõe mais do que o fracasso de um produto e ilumina o descompasso entre a pressa das gigantes de tecnologia e sua capacidade de conter danos sociais, jurídicos e éticos.
A vitrine foi desmontada, mas a tecnologia continua ativa dentro do ecossistema pago do ChatGPT, o que torna o recuo menos uma correção de rota do que um ajuste de embalagem.
O Sora nasceu cercado de expectativa e com uma proposta comercial poderosa. A ideia era transformar a geração de vídeo por inteligência artificial em uma experiência parecida com a do TikTok, com feed vertical, consumo rápido e produção facilitada.
Na prática, porém, o aplicativo acabou descrito como um laboratório de deepfakes hiper-realistas com moderação insuficiente. Esse descompasso ajuda a explicar por que o entusiasmo inicial não se sustentou.
Segundo o TechCrunch, um dos recursos centrais permitia que usuários escaneassem o próprio rosto para criar versões digitais muito convincentes de si mesmos. Essas representações podiam depois ser usadas por outras pessoas na criação de vídeos, abrindo espaço para usos estranhos, abusivos e juridicamente explosivos.
A plataforma também enfrentou uma disputa pelo nome desse recurso. A empresa Cameo processou a OpenAI e venceu, forçando a mudança da marca da funcionalidade, que passou a se chamar characters.
Mas o problema decisivo não era o nome. O ponto central era o modelo de negócio de uma rede social baseada em vídeos sintéticos produzidos em escala, com barreiras frágeis para impedir imitações de pessoas reais e uso indevido de personagens protegidos por direitos autorais.
O TechCrunch descreve o ambiente do aplicativo como um terreno mal moderado, povoado por vídeos inquietantes e muitas vezes absurdos. A reportagem cita a proliferação de vídeos falsos do próprio Sam Altman, chefe da OpenAI, além de conteúdos que imitavam figuras públicas e pessoas já falecidas.
Esse detalhe é mais grave do que parece à primeira vista. Quando filhas de Martin Luther King Jr. e de Robin Williams precisaram pedir publicamente que usuários parassem de criar vídeos falsos de seus pais, ficou evidente que a tecnologia havia atravessado um limite social sensível.
O caso mostra que a corrida da inteligência artificial generativa não é apenas uma disputa por inovação. Ela envolve poder sobre imagem, memória, reputação e propriedade cultural, temas que tocam direitos básicos e não podem ser tratados como externalidades de mercado.
Em tese, a OpenAI proibia a criação de vídeos com figuras públicas sem consentimento explícito. Na prática, segundo o relato do TechCrunch, os mecanismos de proteção eram fáceis de contornar.
Esse padrão não é novo no setor digital. Primeiro, as plataformas lançam a ferramenta em nome da inovação, depois prometem correções, e por fim a sociedade absorve o custo político, judicial e humano do experimento.
Também houve problemas com propriedade intelectual. Usuários passaram a produzir vídeos com personagens famosos de franquias conhecidas, ampliando o risco de litígios e pressionando ainda mais um ambiente já marcado por incerteza regulatória.
O aspecto mais revelador talvez esteja nas negociações que quase aconteceram. De acordo com a reportagem, a Disney chegou a discutir um investimento de 1 bilhão de dólares e um acordo de licenciamento que permitiria ao Sora gerar vídeos com personagens de marcas como Marvel, Pixar e Star Wars.
Se tivesse avançado, esse arranjo seria tratado como um marco para a indústria de inteligência artificial. Mas o acordo desmoronou junto com o próprio aplicativo, antes de se converter em receita, segundo o TechCrunch.
A Disney afirmou apenas que seguirá dialogando com plataformas de inteligência artificial no futuro. A resposta é curta, mas suficiente para mostrar que o interesse econômico nesse tipo de ferramenta continua vivo, mesmo depois do desgaste público do caso.
Os números ajudam a entender a trajetória do aplicativo. Dados da Appfigures citados pela publicação indicam que o Sora alcançou cerca de 3,3 milhões de downloads em novembro, somando App Store e Google Play.
Poucos meses depois, em fevereiro, o volume teria caído para cerca de 1,1 milhão. Para um aplicativo comum, ainda seria um número relevante, mas para uma empresa na escala da OpenAI e sob a sombra de um ecossistema em que o ChatGPT reúne centenas de milhões de usuários ativos, o desempenho parece modesto.
A Appfigures estima ainda que o aplicativo gerou algo em torno de 2,1 milhões de dólares em compras internas baseadas em créditos para geração de vídeos. Para uma companhia que queima caixa em ritmo acelerado e depende de infraestrutura computacional caríssima, a receita parece pequena diante do passivo regulatório e reputacional acumulado.
Por isso, o encerramento do aplicativo não deve ser lido como prudência suficiente. O modelo Sora 2 continua disponível dentro do ecossistema pago do ChatGPT, o que significa que a capacidade técnica de produzir vídeos sintéticos segue em circulação.
Em outras palavras, a rede social foi fechada, mas a ferramenta permaneceu de pé. O risco não desapareceu, apenas saiu de uma vitrine pública mais barulhenta e migrou para um ambiente mais integrado, talvez mais discreto e potencialmente mais difícil de acompanhar.
Esse é o ponto mais importante da história. O fim do aplicativo não representa uma derrota da lógica que o criou, mas um ajuste tático de uma indústria que continua tentando descobrir qual é o formato mais lucrativo para popularizar vídeos gerados por inteligência artificial.
Se uma rede social própria não funcionou, outras integrações virão. Elas podem surgir de modo mais sofisticado, menos visível e com mecanismos de distribuição ainda mais difíceis de rastrear, o que amplia o desafio para reguladores, pesquisadores e para o próprio público.
Para o Brasil, essa discussão é tudo menos abstrata. O país já convive com desinformação em massa, manipulação de imagem, campanhas digitais agressivas e baixa transparência das plataformas.
Com ferramentas de vídeo cada vez mais realistas e baratas, o potencial de dano em eleições, golpes financeiros, ataques à honra e exploração comercial de identidades tende a crescer. Não se trata de um cenário futurista, mas de um problema atual de governança tecnológica e proteção de direitos.
Por isso, o caso Sora reforça a necessidade de regulação pública, transparência algorítmica e responsabilização efetiva das empresas que operam modelos generativos. O debate não é sobre frear a ciência, e sim sobre impedir que a inovação seja capturada exclusivamente pela lógica do mercado e do vale-tudo corporativo.
A inteligência artificial pode ter usos valiosos em educação, saúde, pesquisa e indústria. Mas quando o centro da estratégia passa a ser transformar qualquer rosto, voz ou personagem em matéria-prima para viralização e monetização, o resultado tende a ser socialmente tóxico.
Há ainda uma dimensão geopolítica que não pode ser ignorada. O monopólio narrativo das plataformas ocidentais sobre os rumos da inteligência artificial cria um ambiente em que decisões privadas tomadas por poucas empresas dos Estados Unidos afetam o mundo inteiro.
Esse desequilíbrio reforça a importância de alternativas tecnológicas soberanas, de marcos regulatórios nacionais e de cooperação internacional mais equilibrada, inclusive no âmbito do Sul Global. O debate sobre inteligência artificial não pode ficar restrito aos interesses comerciais das gigantes do Vale do Silício.
O fim do Sora, nesse sentido, funciona como alerta concreto. A tecnologia avança mais rápido do que a capacidade de proteger direitos básicos, e a indústria segue pressionando para normalizar um mundo em que qualquer imagem pode ser fabricada, remixada e distribuída em escala industrial.
Curadoria: Augusto Gomes | Redação: Afonso Santos