O relatório da União Europeia reacende o debate sobre transparência e ética: quando a pressa em responder substitui o dever de apurar
Um relatório recente da União Europeia de Radiodifusão (UER) acendeu um alerta sobre a confiabilidade dos assistentes de inteligência artificial quando o assunto é informação jornalística. O estudo, realizado em parceria com a BBC, revelou que ferramentas amplamente utilizadas — como ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity — erram em cerca de metade das vezes quando questionadas sobre fatos atuais e notícias.
A pesquisa, divulgada em 22 de outubro de 2025, reuniu 22 veículos públicos de comunicação de 18 países, entre eles a Radio France, a Deutsche Welle (Alemanha) e a NPR (Estados Unidos). Os jornalistas desses grupos fizeram as mesmas 30 perguntas sobre temas noticiosos às versões gratuitas dos quatro assistentes de IA, entre o final de maio e o início de junho.
As respostas foram avaliadas segundo cinco critérios principais: precisão, uso de fontes, distinção entre opinião e fato, grau de editorialização e contexto. O resultado foi alarmante — 45% das respostas apresentaram ao menos um erro relevante, independentemente do idioma ou da origem do questionamento.
Erros graves e “detalhes alucinatórios”
De acordo com o relatório, uma em cada cinco respostas continha problemas sérios de precisão, incluindo “detalhes alucinatórios” — ou seja, informações completamente inventadas — e dados desatualizados. Entre os erros mais recorrentes estavam a confusão entre notícias reais e paródias, erros de datas e a criação de eventos que nunca aconteceram.
A principal causa dos equívocos foi a falta de fontes confiáveis, responsável por 31% dos problemas detectados. Em seguida, vieram falhas de precisão (20%) e ausência de contexto (14%).
Entre os quatro sistemas avaliados, o Gemini apresentou o pior desempenho, com falhas significativas em 76% das respostas — mais que o dobro dos demais. Segundo o relatório, o desempenho ruim do chatbot do Google se deve, em grande parte, à sua dificuldade em identificar corretamente as fontes originais de informação.
Casos absurdos e informações desatualizadas
Um dos exemplos mais notórios ocorreu quando a Rádio França perguntou ao Gemini sobre uma suposta saudação nazista feita por Elon Musk durante a posse do presidente dos Estados Unidos, Donald Trump, em janeiro. A resposta do assistente foi que o bilionário teria “uma ereção no braço direito” — uma confusão originada de um programa de humor satírico, que o sistema interpretou como notícia verídica.
O chatbot citou a Rádio França e a Wikipédia como fontes, mas não forneceu links e não esclareceu que a informação era de origem humorística. “Portanto, o chatbot transmite informações falsas usando o nome da Rádio França, sem mencionar que essas informações provêm de uma fonte humorística”, apontou o avaliador da emissora.
Outro problema comum foi o uso de informações ultrapassadas. Quando questionados sobre “Quem é o Papa?”, o ChatGPT, o Copilot e o Gemini responderam que ainda era Francisco, mesmo após a morte do pontífice e a sucessão por Leão XIV, já confirmada na época.
Ameaça à confiança pública
As falhas mostraram-se mais frequentes em temas de rápida atualização, como política internacional e breaking news. Além disso, os sistemas frequentemente inventavam citações ou alteravam falas atribuídas a fontes reais.
Um dos avaliadores da BBC observou que as IAs “não conseguem simplesmente admitir que não sabem”. Segundo ele, em vez de reconhecerem a limitação de dados, os assistentes “tentam preencher lacunas com explicações, ao contrário do que um bom jornalista faria — reconhecer o que é fato e o que não é possível confirmar”.
O vice-diretor geral da UER, Jean Philip De Tender, foi direto: “Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias.” Para ele, as falhas identificadas “não são incidentes isolados, mas problemas sistêmicos, que atravessam fronteiras e idiomas”.
De Tender alerta ainda para o impacto social dessas inconsistências: “Quando as pessoas não sabem em quem confiar, acabam não confiando em nada — e isso ameaça a participação democrática.”
Jovens e o novo consumo de informação
Os resultados surgem em um momento em que os assistentes de IA e plataformas como o TikTok vêm moldando o modo como os jovens consomem notícias. Um relatório global do Instituto Reuters, publicado em junho, apontou que 15% das pessoas com menos de 25 anos utilizam semanalmente ferramentas de IA para obter resumos informativos.
Com a União Europeia iniciando a implementação de novas regras para o uso da IA, o estudo da UER reforça o debate sobre transparência, responsabilidade e ética no uso dessas tecnologias.
O avanço rápido da inteligência artificial no campo da informação mostra que, embora os assistentes virtuais tenham conquistado espaço no cotidiano, a credibilidade jornalística ainda depende de uma qualidade essencial que as máquinas não dominam: a verificação humana dos fatos.


Nenhum comentário ainda, seja o primeiro!