Menu

Experimento expõe falhas de IA na propagação de desinformação médica

Uma pesquisa inovadora liderada por Almira Osmanovic Thunström, da Universidade de Gotemburgo, na Suécia, revelou vulnerabilidades alarmantes em modelos de inteligência artificial (IA) ao disseminar informações médicas falsas. O experimento criou uma doença fictícia chamada bixonimania, descrita como um distúrbio causado por exposição excessiva à luz azul de telas, com o objetivo de testar se […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Imagem gerada por IA pelo Flux Pro (fal.ai), a partir de prompt do Cafezinho. 07/04/2026 13:31

Uma pesquisa inovadora liderada por Almira Osmanovic Thunström, da Universidade de Gotemburgo, na Suécia, revelou vulnerabilidades alarmantes em modelos de inteligência artificial (IA) ao disseminar informações médicas falsas.

O experimento criou uma doença fictícia chamada bixonimania, descrita como um distúrbio causado por exposição excessiva à luz azul de telas, com o objetivo de testar se sistemas de IA poderiam tratar a farsa como fato.

Os resultados mostraram que ferramentas como Bing Copilot e Google Gemini absorveram e propagaram a desinformação, expondo riscos sérios para a confiabilidade de informações de saúde geradas por máquinas.

O estudo teve início em março de 2024, quando dados sobre a bixonimania foram inseridos em blogs e servidores de pré-impressão.

Em pouco tempo, os modelos de IA começaram a citar a condição como real, e o problema se agravou quando a doença fictícia apareceu em artigos revisados por pares.

Isso sugere que pesquisadores podem estar utilizando referências geradas por IA sem checar as fontes originais.

Osmanovic Thunström inseriu pistas claras de que se tratava de uma invenção, como a menção a um autor fictício e agradecimentos a entidades inexistentes, mas tais sinais não impediram a disseminação da informação errada.

Conforme relatado pelo portal Nature, o experimento demonstra como textos com aparência profissional podem amplificar as chamadas “alucinações” de IA, levando os sistemas a fabricar dados falsos.

Mahmud Omar, pesquisador da Harvard Medical School, apontou a dificuldade de criar métodos para testar automaticamente novos modelos de IA, dado o ritmo acelerado de seu desenvolvimento.

A falta de barreiras eficazes para filtrar informações fabricadas evidencia um desafio crescente no campo da tecnologia e da ciência.

O impacto da pesquisa foi tão significativo que resultou na retratação de um artigo científico que havia mencionado a bixonimania como uma condição legítima.

Esse incidente sublinha a necessidade urgente de mecanismos mais robustos para validar fontes e proteger a integridade do conhecimento científico diante do avanço das ferramentas digitais.

A experiência também acende um alerta sobre o uso indiscriminado de IA em contextos sensíveis como a medicina, onde erros podem ter consequências graves.

Os desdobramentos do experimento reforçam a importância de um escrutínio rigoroso sobre as informações que circulam em plataformas digitais e acadêmicas.

A facilidade com que uma doença inventada ganhou tração entre sistemas automatizados e até em publicações científicas aponta para uma lacuna crítica na verificação de dados.

A pesquisa de Osmanovic Thunström serve como um chamado para que desenvolvedores, cientistas e instituições repensem a confiança depositada em tecnologias de linguagem sem filtros adequados, especialmente em áreas onde a precisão é inegociável.

Com informações de nature.com.

Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes