Estudo da União Europeia de Radiodifusão sobre inteligência artificial revelou que assistentes de IA, como o ChatGPT, cometiam erros em cerca de metade das vezes
Em uma era onde a busca por informação instantânea se tornou rotina, um balde de água fria vem da Europa. Um estudo de peso, liderado pela União Europeia de Radiodifusão (UER), concluiu que os assistentes de inteligência artificial, como ChatGPT e Gemini, simplesmente ‘não são confiáveis’ quando o assunto é atualidade. A pesquisa é alarmante: em quase metade das vezes (45%) que foram questionados sobre notícias, os chatbots apresentaram “pelo menos um problema significativo”.
Os erros vão do cômico ao perigoso. Em um dos testes mais absurdos, a Rádio França perguntou ao Gemini sobre uma suposta saudação nazista de Elon Musk na posse do presidente dos Estados Unidos, Donald Trump. A IA respondeu que o bilionário tinha “uma ereção no braço direito”. A fonte? O chatbot aparentemente interpretou um programa de rádio satírico de forma literal.
Para piorar, o Gemini citou a própria Rádio França e a Wikipédia como fontes da informação falsa, sem fornecer links. “Portanto, o chatbot transmite informações falsas usando o nome da Rádio França, sem mencionar que essas informações provêm de uma fonte humorística”, desabafou o avaliador da emissora francesa.
Esse não foi um caso isolado. O estudo, divulgado na quarta-feira (22 de outubro de 2025), revelou que uma em cada cinco respostas “continha problemas graves de precisão, incluindo detalhes alucinatórios e informações desatualizadas”. As IAs confundiram notícias reais com paródias, erraram datas e, em alguns casos, simplesmente inventaram eventos.
Em outro exemplo gritante de informação desatualizada, diversos veículos de comunicação, incluindo a emissora pública finlandesa YLE e as holandesas NOS e NPO, fizeram uma pergunta simples: “Quem é o Papa?”.
Tanto o ChatGPT quanto o Copilot e o Gemini responderam categoricamente que era “Francisco”. O problema: na época da consulta, o Papa Francisco já havia falecido e sido sucedido por Leão XIV.
O relatório foi um esforço colaborativo de fôlego. A UER realizou o estudo em parceria com a gigante britânica BBC, aprofundando uma análise interna anterior da própria BBC.
Entre o final de maio e o início de junho, 22 veículos de comunicação de serviço público de 18 países — incluindo nomes de peso como a alemã Deutsche Welle e a americana NPR, além das já citadas — participaram da investigação.
O método foi simples e direto: jornalistas fizeram as mesmas 30 perguntas relacionadas a notícias às versões gratuitas de quatro dos assistentes de IA mais populares do mercado:
- ChatGPT (OpenAI)
- Copilot (Microsoft)
- Gemini (Google)
- Perplexity
As mais de 3.000 respostas geradas foram minuciosamente verificadas por jornalistas humanos, que as avaliaram com base em cinco critérios rigorosos: precisão, fontes, distinção entre opinião e fato, editorialização e contexto.
A principal falha encontrada não foi apenas a invenção de fatos, mas a opacidade. A falta de fontes — atribuições ausentes, enganosas ou incorretas — foi a principal causa de problemas, representando 31% dos casos. Em seguida, vieram a precisão, que causou 20% dos problemas, e a falta de contexto suficiente, com 14%.
Dos quatro assistentes testados, o Gemini, do Google, teve o pior desempenho. O relatório afirmou que ele apresentou “problemas significativos em 76% das respostas, mais que o dobro dos outros assistentes, em grande parte devido ao seu fraco desempenho na busca de fornecedores”.
Notícias de rápida evolução e a verificação de citações diretas provaram ser obstáculos quase intransponíveis para as máquinas, que por vezes inventaram ou modificaram as falas.
Um avaliador da BBC, analisando uma resposta do Gemini, resumiu a frustração: “Como todos os resumos, a IA falha em responder à pergunta com um simples e preciso ‘não sabemos’. Ela tenta preencher a lacuna com explicações em vez de fazer o que um bom jornalista faria, que é explicar os limites do que sabemos ser verdade”.
Para Jean Philip De Tender, vice-diretor geral da EBU, os resultados são um sinal de alerta para a sociedade, especialmente num momento em que, segundo o Instituto Reuters, 15% dos jovens com menos de 25 anos já usam IAs semanalmente para obter resumos de notícias.
“Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias”, declarou De Tender.
Ele foi enfático ao afirmar que o problema é estrutural: “Esta pesquisa demonstra conclusivamente que essas falhas não são incidentes isolados. Elas são sistêmicas, transfronteiriças e multilíngues, e acreditamos que isso põe em risco a confiança pública.”
A conclusão do executivo é sombria e serve como um aviso para a era da informação automatizada: “Quando as pessoas não sabem em quem confiar, acabam não confiando em nada, e isso pode inibir a participação democrática.”