Menu

IA falha em quase 50% das respostas sobre notícias, aponta estudo europeu

O relatório da União Europeia reacende o debate sobre transparência e ética: quando a pressa em responder substitui o dever de apurar Um relatório recente da União Europeia de Radiodifusão (UER) acendeu um alerta sobre a confiabilidade dos assistentes de inteligência artificial quando o assunto é informação jornalística. O estudo, realizado em parceria com a […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Estudo europeu expõe a fragilidade dos assistentes de IA ao lidar com fatos, revelando um futuro de desinformação travestida de precisão tecnológica.
Enquanto jovens confiam em respostas automáticas, cresce o abismo entre o que é dito pelas máquinas e o que realmente acontece / Reprodução

O relatório da União Europeia reacende o debate sobre transparência e ética: quando a pressa em responder substitui o dever de apurar


Um relatório recente da União Europeia de Radiodifusão (UER) acendeu um alerta sobre a confiabilidade dos assistentes de inteligência artificial quando o assunto é informação jornalística. O estudo, realizado em parceria com a BBC, revelou que ferramentas amplamente utilizadas — como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity — erram em cerca de metade das vezes quando questionadas sobre fatos atuais e notícias.

A pesquisa, divulgada em 22 de outubro de 2025, reuniu 22 veículos públicos de comunicação de 18 países, entre eles a Radio France, a Deutsche Welle (Alemanha) e a NPR (Estados Unidos). Os jornalistas desses grupos fizeram as mesmas 30 perguntas sobre temas noticiosos às versões gratuitas dos quatro assistentes de IA, entre o final de maio e o início de junho.

As respostas foram avaliadas segundo cinco critérios principais: precisão, uso de fontes, distinção entre opinião e fato, grau de editorialização e contexto. O resultado foi alarmante — 45% das respostas apresentaram ao menos um erro relevante, independentemente do idioma ou da origem do questionamento.

Erros graves e “detalhes alucinatórios”

De acordo com o relatório, uma em cada cinco respostas continha problemas sérios de precisão, incluindo “detalhes alucinatórios” — ou seja, informações completamente inventadas — e dados desatualizados. Entre os erros mais recorrentes estavam a confusão entre notícias reais e paródias, erros de datas e a criação de eventos que nunca aconteceram.

A principal causa dos equívocos foi a falta de fontes confiáveis, responsável por 31% dos problemas detectados. Em seguida, vieram falhas de precisão (20%) e ausência de contexto (14%).

Entre os quatro sistemas avaliados, o Gemini apresentou o pior desempenho, com falhas significativas em 76% das respostasmais que o dobro dos demais. Segundo o relatório, o desempenho ruim do chatbot do Google se deve, em grande parte, à sua dificuldade em identificar corretamente as fontes originais de informação.

Casos absurdos e informações desatualizadas

Um dos exemplos mais notórios ocorreu quando a Rádio França perguntou ao Gemini sobre uma suposta saudação nazista feita por Elon Musk durante a posse do presidente dos Estados Unidos, Donald Trump, em janeiro. A resposta do assistente foi que o bilionário teria “uma ereção no braço direito” — uma confusão originada de um programa de humor satírico, que o sistema interpretou como notícia verídica.

O chatbot citou a Rádio França e a Wikipédia como fontes, mas não forneceu links e não esclareceu que a informação era de origem humorística. “Portanto, o chatbot transmite informações falsas usando o nome da Rádio França, sem mencionar que essas informações provêm de uma fonte humorística”, apontou o avaliador da emissora.

Outro problema comum foi o uso de informações ultrapassadas. Quando questionados sobre “Quem é o Papa?”, o ChatGPT, o Copilot e o Gemini responderam que ainda era Francisco, mesmo após a morte do pontífice e a sucessão por Leão XIV, já confirmada na época.

Ameaça à confiança pública

As falhas mostraram-se mais frequentes em temas de rápida atualização, como política internacional e breaking news. Além disso, os sistemas frequentemente inventavam citações ou alteravam falas atribuídas a fontes reais.

Um dos avaliadores da BBC observou que as IAs “não conseguem simplesmente admitir que não sabem”. Segundo ele, em vez de reconhecerem a limitação de dados, os assistentes “tentam preencher lacunas com explicações, ao contrário do que um bom jornalista faria — reconhecer o que é fato e o que não é possível confirmar”.

O vice-diretor geral da UER, Jean Philip De Tender, foi direto: “Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias.” Para ele, as falhas identificadas “não são incidentes isolados, mas problemas sistêmicos, que atravessam fronteiras e idiomas”.

De Tender alerta ainda para o impacto social dessas inconsistências: “Quando as pessoas não sabem em quem confiar, acabam não confiando em nada — e isso ameaça a participação democrática.

Jovens e o novo consumo de informação

Os resultados surgem em um momento em que os assistentes de IA e plataformas como o TikTok vêm moldando o modo como os jovens consomem notícias. Um relatório global do Instituto Reuters, publicado em junho, apontou que 15% das pessoas com menos de 25 anos utilizam semanalmente ferramentas de IA para obter resumos informativos.

Com a União Europeia iniciando a implementação de novas regras para o uso da IA, o estudo da UER reforça o debate sobre transparência, responsabilidade e ética no uso dessas tecnologias.

O avanço rápido da inteligência artificial no campo da informação mostra que, embora os assistentes virtuais tenham conquistado espaço no cotidiano, a credibilidade jornalística ainda depende de uma qualidade essencial que as máquinas não dominam: a verificação humana dos fatos.

, , , ,
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes