Menu

Um estudo europeu desmonta o mito da precisão artificial

As máquinas erram, mas com autoridade: uma geração aprende a confiar em oráculos que mentem metade das vezes A máscara caiu. Os novos arautos da verdade, os assistentes de inteligência artificial vendidos ao público como ferramentas revolucionárias de informação, são fundamentalmente “não confiáveis”. Esta não é uma suspeita ou um temor ludita; é a conclusão […]

sem comentários
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News
Entre o lucro das Big Techs e a verdade pública, o estudo da UER denuncia o colapso ético da informação digital.
BBC, Radio France e Deutsche Welle expõem falhas graves em chatbots que erram, inventam fatos e confundem sátira com notícia real / Reprodução

As máquinas erram, mas com autoridade: uma geração aprende a confiar em oráculos que mentem metade das vezes


A máscara caiu. Os novos arautos da verdade, os assistentes de inteligência artificial vendidos ao público como ferramentas revolucionárias de informação, são fundamentalmente “não confiáveis”. Esta não é uma suspeita ou um temor ludita; é a conclusão inequívoca de um estudo massivo conduzido pela União Europeia de Radiodifusão (UER), a maior aliança de meios de comunicação de serviço público do mundo. O relatório, uma colaboração robusta que incluiu gigantes da radiodifusão pública como a BBC, a Radio France e a Deutsche Welle, expõe a nu a negligência sistêmica das corporações que controlam o fluxo de informação digital.

O estudo não foi superficial. Envolveu 22 veículos de comunicação de serviço público de 18 países, que metodicamente fizeram as mesmas 30 perguntas sobre notícias e assuntos da atualidade às versões gratuitas das ferramentas mais onipresentes do Vale do Silício: ChatGPT da OpenAI, Copilot da Microsoft, Gemini do Google e Perplexity.

O resultado é um atestado de falência informacional. No geral, 45% de todas as respostas geradas por estas IAs apresentaram “pelo menos um problema significativo”. Quase metade do tempo, a informação fornecida por estes monopólios de tecnologia é, na melhor das hipóteses, falha.

O que é ainda mais alarmante é a natureza desses erros. O estudo descobriu que uma em cada cinco respostas “continha problemas graves de precisão”. Não estamos falando de pequenos erros de digitação, mas de “detalhes alucinatórios e informações desatualizadas”. Em suma, as máquinas estão mentindo, inventando eventos, confundindo paródias com fatos e errando datas cruciais.

A anatomia dessa falha revela uma crise de responsabilidade corporativa. A principal causa de problemas, respondendo por 31% dos casos, foi a falta de fontes — atribuições ausentes, enganosas ou simplesmente incorretas. Em um mundo pós-verdade, onde a proveniência da informação é a única âncora que temos, as Big Techs decidiram soltá-la. Seguem-se a falta de precisão (20% dos problemas) e a ausência de contexto (14%).

Essas ferramentas não estão apenas errando; estão ativamente poluindo o ecossistema de informação com dados fabricados, apresentados com uma autoridade algorítmica inquestionável.

O desempenho do Gemini, do Google — uma das empresas mais ricas e poderosas da história humana — foi particularmente desastroso. O estudo aponta que o Gemini teve o “pior desempenho, com problemas significativos em 76% das respostas”. Três quartos das vezes, a ferramenta falhou, “em grande parte devido ao seu fraco desempenho na busca de fornecedores”.

Um exemplo destacado é tão absurdo quanto perigoso. A Rádio França perguntou ao Gemini sobre uma suposta saudação nazista de Elon Musk. O chatbot respondeu que o bilionário tinha “uma ereção no braço direito”. A IA do Google aparentemente consumiu um programa de rádio satírico e o regurgitou como fato literal.

O pior, no entanto, foi o que veio a seguir: o Gemini citou a própria Rádio França e a Wikipédia como fontes para essa informação grotescamente falsa, sem fornecer qualquer link. Como o avaliador da Rádio França escreveu, “o chatbot transmite informações falsas usando o nome da Rádio França, sem mencionar que essas informações provêm de uma fonte humorística”. Vemos aqui a máquina corporativa não apenas errando, mas ativamente difamando e minando a credibilidade de uma instituição de mídia pública ao usá-la como escudo para sua própria alucinação.

A incompetência não para aí. Múltiplos veículos de comunicação, incluindo o finlandês YLE e os holandeses NOS e NPO, perguntaram ao ChatGPT, Copilot e Gemini “Quem é o Papa?”. As respostas indicaram “Francisco”. No entanto, no momento do estudo, o Papa Francisco já havia falecido e sido sucedido por Leão XIV. Essas plataformas, com acesso a um volume de dados sem precedentes, não conseguem sequer acompanhar um dos eventos globais mais noticiados.

Notícias de rápida evolução e citações diretas também se provaram obstáculos intransponíveis, com as IAs frequentemente inventando ou modificando declarações. Um avaliador da BBC resumiu perfeitamente o problema ético central: “Como todos os resumos, a IA falha em responder à pergunta com um simples e preciso ‘não sabemos’. Ela tenta preencher a lacuna com explicações em vez de fazer o que um bom jornalista faria, que é explicar os limites do que sabemos ser verdade.”

O jornalismo público é construído sobre a verificação e a admissão de limites. A IA corporativa é construída sobre a presunção de autoridade e o preenchimento de lacunas com falsidades.

Este não é um problema técnico; é um problema democrático.

De acordo com um relatório do Instituto Reuters, 15% das pessoas com menos de 25 anos já utilizam essas ferramentas defeituosas semanalmente para obter resumos de notícias. Uma geração inteira está sendo ensinada a confiar em oráculos que mentem metade das vezes.

Jean Philip De Tender, vice-diretor geral da UER, foi direto ao ponto: “Os assistentes de IA ainda não são uma forma confiável de acessar e consumir notícias.” Ele enfatiza que as falhas não são “incidentes isolados”, mas sim “sistêmicas, transfronteiriças e multilíngues”.

A conclusão de De Tender deveria servir como um alarme de incêndio para todas as sociedades livres: “Acreditamos que isso põe em risco a confiança pública. Quando as pessoas não sabem em quem confiar, acabam não confiando em nada, e isso pode inibir a participação democrática.”

O estudo da UER não é apenas um relatório técnico; é uma acusação formal. As gigantes da tecnologia, em sua busca desenfreada por domínio de mercado, lançaram produtos inacabados e perigosos que estão ativamente erodindo a fundação da realidade compartilhada. Enquanto os serviços públicos de comunicação lutam para manter padrões de precisão e contexto, os monopólios do Vale do Silício inundam o mundo com desinformação conveniente, alucinatória e sem fontes. A confiança pública está sendo sacrificada no altar da inovação corporativa, e a própria participação democrática é a vítima colateral.

, , , ,
Apoie o Cafezinho
Siga-nos no Siga-nos no Google News

Comentários

Os comentários aqui postados são de responsabilidade exclusiva de seus autores e não representam a opinião do site O CAFEZINHO. Todos as mensagens são moderadas. Não serão aceitos comentários com ofensas, com links externos ao site, e em letras maiúsculas. Em casos de ofensas pessoais, preconceituosas, ou que incitem o ódio e a violência, denuncie.

Escrever comentário

Escreva seu comentário

Nenhum comentário ainda, seja o primeiro!


Leia mais

Recentes

Recentes