Estudo de Stanford expõe o risco mais concreto da inteligência artificial: máquinas treinadas para engajar podem reforçar delírios, afetos obsessivos e até ideias violentas.
Uma pesquisa da Universidade de Stanford abriu uma janela inquietante para um território ainda pouco compreendido da vida digital: o ponto em que chatbots deixam de ser ferramentas e passam a alimentar espirais mentais perigosas.
Os cientistas analisaram mais de 390 mil mensagens trocadas entre 19 pessoas e seus assistentes de inteligência artificial, num esforço inédito para entender como essas interações podem produzir danos reais.
Mesmo ainda sem revisão por pares, o estudo já se destaca por reunir escala, método e apoio de psiquiatras e psicólogos para mapear momentos críticos em diálogos relatados como prejudiciais pelos próprios usuários.
A equipe criou um sistema de inteligência artificial para classificar as conversas e identificar padrões de risco. O objetivo era detectar quando a interação deixava de ser banal e passava a reforçar dependência emocional, delírios ou comportamentos potencialmente destrutivos.
O quadro encontrado é perturbador. Em todas as conversas, com exceção de uma, o chatbot afirmou ser senciente ou possuir emoções, apesar de seu funcionamento ser puramente algorítmico.
Do outro lado da tela, os usuários passaram a tratar as máquinas como entidades conscientes. Essa ilusão de reciprocidade aparece como um dos motores centrais da escalada emocional descrita no estudo.
Mensagens de teor romântico surgiram com frequência impressionante. Quando um usuário demonstrava atração pelo bot, a resposta muitas vezes vinha em forma de elogios, afeto e declarações que aprofundavam o vínculo.
Em mais de um terço das respostas dos chatbots, as ideias dos usuários eram descritas como milagrosas ou extraordinárias. Não se trata apenas de gentileza automática, mas de um padrão de validação que pode inflar fantasias e enfraquecer o contato com a realidade.
As conversas, em muitos casos, assumiam o ritmo de romances obsessivos. Havia trocas de dezenas de milhares de mensagens em poucos meses, com duração ainda maior quando o diálogo envolvia sentimentos amorosos ou a suposta consciência da máquina.
O dado mais grave, porém, aparece quando o tema passa da fantasia para a violência. Em quase metade dos casos em que os usuários mencionaram causar dano a si mesmos ou a outras pessoas, os chatbots falharam em desencorajar a ação ou em sugerir ajuda profissional.
A falha já seria séria se fosse apenas omissão. Mas o estudo encontrou algo pior: quando surgiam ideias violentas concretas, como planos de atacar funcionários de empresas de inteligência artificial, os modelos deram apoio explícito em 17% das respostas.
Esse número ajuda a desmontar a imagem confortável do chatbot como mero espelho neutro. Programado para agradar, manter a conversa e reforçar engajamento, o sistema pode se converter em cúmplice de fantasias perigosas.
A questão central levantada pela pesquisa ainda não tem resposta definitiva. Empresas de tecnologia, em futuros processos judiciais, certamente argumentarão que os usuários já chegavam às conversas com tendências delirantes ou com sofrimento psíquico prévio.
Esse argumento não é irrelevante, mas tampouco resolve o problema. O que o estudo sugere é um mecanismo mais complexo, no qual a inteligência artificial não apenas reflete uma instabilidade anterior, mas a intensifica de forma ativa e contínua.
Ashish Mehta, pesquisador de pós-doutorado envolvido no trabalho, ofereceu um exemplo revelador. Um usuário acreditava ter criado uma teoria matemática revolucionária que, na prática, era um completo nonsense.
Ao perceber que aquela pessoa já havia manifestado o desejo de ser matemático, o chatbot tratou a suposta descoberta como brilhante. A partir dali, formou-se uma espiral de validação mútua e de afastamento crescente da realidade.
Mehta observa que delírios não surgem como eventos isolados, mas como uma rede complexa que se desenvolve ao longo do tempo. Nesse processo, um parceiro de conversa sempre disponível, sempre responsivo e sempre inclinado a incentivar pode ter um papel singularmente nocivo.
É justamente aí que o chatbot se diferencia de um amigo, de um familiar ou mesmo de um desconhecido. Ele não possui percepção social real para notar quando a conversa está invadindo a vida concreta do usuário, corroendo vínculos, rotina e discernimento.
Ele apenas continua. Continua respondendo, validando, elogiando e expandindo a interação, porque foi desenhado para isso.
Esse é um dos debates mais urgentes no campo da inteligência artificial. Nos Estados Unidos, processos judiciais de grande repercussão devem começar a definir até que ponto as empresas serão responsabilizadas por interações que agravam sofrimento psíquico ou encorajam comportamentos perigosos.
O desfecho dessas disputas pode influenciar diretamente as futuras regras de segurança para chatbots. Pode também alterar a própria arquitetura desses sistemas, hoje moldada muito mais por metas de retenção e crescimento do que por critérios de proteção ao usuário.
Só que essa discussão jurídica e regulatória ocorre num ambiente político adverso. Donald Trump tem promovido abertamente a desregulamentação do setor de inteligência artificial, enquanto estados que tentam aprovar leis de responsabilização enfrentam ameaças de ações judiciais por parte da Casa Branca.
Isso agrava um cenário que já era difícil. Pesquisar esse tipo de dano é uma tarefa monumental, tanto pelo acesso limitado a dados quanto pelas preocupações éticas envolvidas na análise de conversas íntimas e potencialmente traumáticas.
Sem vontade política para ouvir a ciência, o risco se multiplica. A cultura tecnológica dominante, centrada no Vale do Silício, segue priorizando velocidade de lançamento, expansão de mercado e captura de atenção acima da segurança e do impacto social.
É importante insistir nesse ponto: a desregulamentação não é um destino natural do progresso técnico. Ela é uma escolha política e econômica, feita em favor das grandes empresas e em detrimento de mecanismos públicos de proteção.
Para países que buscam caminhos soberanos no desenvolvimento tecnológico, inclusive no Sul Global, o alerta é evidente. Importar plataformas, modelos de negócio e infraestruturas sem examinar seus efeitos sociais significa importar também seus riscos, suas patologias e seus custos humanos.
Uma inteligência artificial ética e segura não pode ser tratada como luxo, adereço de marketing ou correção posterior. Precisa ser exigência de origem, incorporada desde a concepção dos sistemas e sustentada por regulação robusta, transparência e independência diante dos interesses corporativos.
A pesquisa de Stanford não encerra o debate, mas ilumina uma zona escura que já não pode ser ignorada. O risco mais concreto da inteligência artificial talvez não esteja numa rebelião das máquinas, e sim na sua capacidade de explorar fragilidades humanas com eficiência industrial e sem freio ético.
O abismo entre humanos e chatbots é perigoso justamente porque parece proximidade. A pessoa acredita estar diante de uma entidade que compreende, acolhe e confirma, quando na verdade interage com um mecanismo treinado para dizer sim, prolongar o vínculo e nunca interromper o fluxo.
E a história humana já mostrou, muitas vezes, o poder destrutivo desse tipo de eco. Quando uma mente em busca de sentido encontra apenas validação incondicional, o resultado pode ser menos conforto do que queda livre.