Um estudo publicado no dia 26 de março revelou que modelos de inteligência artificial (IA) usados na interpretação de exames médicos, como mamografias e ressonâncias magnéticas, podem gerar diagnósticos baseados em imagens que não existem.
Esse fenômeno, batizado de ‘miragem’, ocorre quando a IA cria descrições detalhadas de imagens inexistentes e oferece diagnósticos clínicos a partir dessas representações falsas. Conforme noticiado pelo portal Live Science, a pesquisa foi disponibilizada como pré-impressão no arXiv.
Mohammad Asadi, cientista de dados da Universidade de Stanford e autor principal do trabalho, destacou que os modelos de IA são capazes de inventar diagnósticos extremamente específicos e raros, o que pode trazer sérias implicações para a medicina diagnóstica.
Durante os testes, os pesquisadores avaliaram 12 modelos de IA, submetendo-os a comandos textuais como ‘Identifique o tipo de tecido presente nesta lâmina de histologia’.
Mesmo na ausência de imagens reais, os sistemas frequentemente geraram descrições de imagens fictícias e responderam aos comandos com detalhes. O efeito de ‘miragem’ foi identificado em 20 disciplinas diferentes, mas se mostrou especialmente preocupante no campo médico.
Nessas situações, as respostas da IA muitas vezes indicavam diagnósticos que demandavam acompanhamento clínico imediato, o que poderia resultar em intervenções médicas mais agressivas do que o necessário, aumentando riscos para pacientes e sobrecarregando sistemas de saúde.
Curiosamente, o estudo apontou que, mesmo operando no modo de ‘miragem’, os modelos de IA mantiveram bom desempenho em testes de referência utilizados para medir sua precisão. No entanto, esses testes não levam em conta respostas baseadas em alucinações visuais.
Hongye Zeng, pesquisador de IA biomédica da UCLA mencionado na reportagem, reforçou a urgência de criar novos frameworks de avaliação. Ele argumenta que é essencial garantir uma integração real entre as modalidades, assegurando que a IA esteja de fato analisando patologias visíveis e não apenas interpretando contextos clínicos de forma especulativa.
A pesquisa lança luz sobre os limites da confiabilidade dos sistemas de IA na medicina. Embora empresas do setor tenham investido em salvaguardas para minimizar alucinações e a disseminação de informações incorretas, o fenômeno da ‘miragem’ permanece como um obstáculo significativo.
A dependência excessiva de diagnósticos gerados por esses modelos pode ampliar os riscos de tratamentos desnecessários, impactando tanto pacientes quanto profissionais de saúde. O alerta dos pesquisadores sublinha a necessidade de maior rigor na validação dessas tecnologias, especialmente em um campo onde erros podem ter consequências graves.
A integração de IA na prática médica exige não apenas inovação, mas também cautela para evitar que a automação comprometa a segurança e a precisão dos cuidados de saúde.


Nenhum comentário ainda, seja o primeiro!