As máquinas erram, mas com autoridade: uma geração aprende a confiar em oráculos que mentem metade das vezes
A máscara caiu. Os novos arautos da verdade, os assistentes de inteligência artificial vendidos ao público como ferramentas revolucionárias de informação, são fundamentalmente “não confiáveis”. Esta não é uma suspeita ou um temor ludita; é a conclusão inequívoca de um estudo massivo conduzido pela União Europeia de Radiodifusão (UER), a maior aliança de meios de comunicação de serviço público do mundo. O relatório, uma colaboração robusta que incluiu gigantes da radiodifusão pública como a BBC, a Radio France e a Deutsche Welle, expõe a nu a negligência sistêmica das corporações que controlam o fluxo de informação digital.
O estudo não foi superficial. Envolveu 22 veículos de comunicação de serviço público de 18 países, que metodicamente fizeram as mesmas 30 perguntas sobre notícias e assuntos da atualidade às versões gratuitas das ferramentas mais onipresentes do Vale do Silício: ChatGPT da OpenAI, Copilot da Microsoft, Gemini do Google e Perplexity.
O resultado é um atestado de falência informacional. No geral, 45% de todas as respostas geradas por estas IAs apresentaram “pelo menos um problema significativo”. Quase metade do tempo, a informação fornecida por estes monopólios de tecnologia é, na melhor das hipóteses, falha.
O que é ainda mais alarmante é a natureza desses erros. O estudo descobriu que uma em cada cinco respostas “continha problemas graves de precisão”. Não estamos falando de pequenos erros de digitação, mas de “detalhes alucinatórios e informações desatualizadas”. Em suma, as máquinas estão mentindo, inventando eventos, confundindo paródias com fatos e errando datas cruciais.
A anatomia dessa falha revela uma crise de responsabilidade corporativa. A principal causa de problemas, respondendo por 31% dos casos, foi a falta de fontes — atribuições ausentes, enganosas ou simplesmente incorretas. Em um mundo pós-verdade, onde a proveniência da informação é a única âncora que temos, as Big Techs decidiram soltá-la. Seguem-se a falta de precisão (20% dos problemas) e a ausência de contexto (14%).
Essas ferramentas não estão apenas errando; estão ativamente poluindo o ecossistema de informação com dados fabricados, apresentados com uma autoridade algorítmica inquestionável.
O desempenho do Gemini, do Google — uma das empresas mais ricas e poderosas da história humana — foi particularmente desastroso. O estudo aponta que o Gemini teve o “pior desempenho, com problemas significativos em 76% das respostas”. Três quartos das vezes, a ferramenta falhou, “em grande parte devido ao seu fraco desempenho na busca de fornecedores”.
Um exemplo destacado é tão absurdo quanto perigoso. A Rádio França perguntou ao Gemini sobre uma suposta saudação nazista de Elon Musk. O chatbot respondeu que o bilionário tinha “uma ereção no braço direito”. A IA do Google aparentemente consumiu um programa de rádio satírico e o regurgitou como fato literal.
O pior, no entanto, foi o que veio a seguir: o Gemini citou a própria Rádio França e a Wikipédia como fontes para essa informação grotescamente falsa, sem fornecer qualquer link. Como o avaliador da Rádio França escreveu, “o chatbot transmite informações falsas usando o nome da Rádio França, sem mencionar que essas informações provêm de uma fonte humorística”. Vemos aqui a máquina corporativa não apenas errando, mas ativamente difamando e minando a credibilidade de uma instituição de mídia pública ao usá-la como escudo para sua própria alucinação.
A incompetência não para aí. Múltiplos veículos de comunicação, incluindo o finlandês YLE e os holandeses NOS e NPO, perguntaram ao ChatGPT, Copilot e Gemini “Quem é o Papa?”. As respostas indicaram “Francisco”. No entanto, no momento do estudo, o Papa Francisco já havia falecido e sido sucedido por Leão XIV. Essas plataformas, com acesso a um volume de dados sem precedentes, não conseguem sequer acompanhar um dos eventos globais mais noticiados.
Notícias de rápida evolução e citações diretas também se provaram obstáculos intransponíveis, com as IAs frequentemente inventando ou modificando declarações. Um avaliador da BBC resumiu perfeitamente o problema ético central: “Como todos os resumos, a IA falha em responder à pergunta com um simples e preciso ‘não sabemos’. Ela tenta preencher a lacuna com explicações em vez de fazer o que um bom jornalista faria, que é explicar os limites do que sabemos ser verdade.”
O jornalismo público é construído sobre a verificação e a admissão de limites. A IA corporativa é construída sobre a presunção de autoridade e o preenchimento de lacunas com falsidades.
Este não é um problema técnico; é um problema democrático.
De acordo com um relatório do Instituto Reuters, 15% das pessoas com menos de 25 anos já utilizam essas ferramentas defeituosas semanalmente para obter resumos de notícias. Uma geração inteira está sendo ensinada a confiar em oráculos que mentem metade das vezes.
Jean Philip De Tender, vice-diretor geral da UER, foi direto ao ponto: “Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias.” Ele enfatiza que as falhas não são “incidentes isolados”, mas sim “sistêmicas, transfronteiriças e multilíngues”.
A conclusão de De Tender deveria servir como um alarme de incêndio para todas as sociedades livres: “Acreditamos que isso põe em risco a confiança pública. Quando as pessoas não sabem em quem confiar, acabam não confiando em nada, e isso pode inibir a participação democrática.”
O estudo da UER não é apenas um relatório técnico; é uma acusação formal. As gigantes da tecnologia, em sua busca desenfreada por domínio de mercado, lançaram produtos inacabados e perigosos que estão ativamente erodindo a fundação da realidade compartilhada. Enquanto os serviços públicos de comunicação lutam para manter padrões de precisão e contexto, os monopólios do Vale do Silício inundam o mundo com desinformação conveniente, alucinatória e sem fontes. A confiança pública está sendo sacrificada no altar da inovação corporativa, e a própria participação democrática é a vítima colateral.


Nenhum comentário ainda, seja o primeiro!