IA confunde notícias reais com paródias

O estudo constatou que uma em cada cinco respostas “continha problemas graves de precisão, incluindo detalhes alucinatórios e informações desatualizadas”

Um recente estudo da União Europeia de Radiodifusão (UER) revelou aquilo que muitos jornalistas, educadores e pensadores críticos da tecnologia já suspeitavam: os assistentes de inteligência artificial, tão exaltados como o futuro da informação, estão longe de serem confiáveis. ChatGPT, Copilot, Gemini e Perplexity — os quatro grandes modelos testados — erraram em quase metade das vezes em que foram questionados sobre notícias e assuntos atuais. E o mais grave: os erros não foram pontuais, mas sistemáticos, atravessando fronteiras, idiomas e contextos culturais.

Em uma época em que a desinformação é uma arma política e econômica, o resultado desse estudo não é apenas um alerta técnico — é um chamado político. A dependência crescente de ferramentas controladas por megacorporações privadas, quase todas norte-americanas, para mediar o acesso à informação mundial, é um risco para a democracia e para a soberania informacional dos povos.

Os dados são contundentes: 45% das respostas dadas pelos assistentes de IA apresentaram “pelo menos um problema significativo”. Uma em cada cinco continha erros graves de precisão — informações falsas, desatualizadas ou simplesmente inventadas. Em muitos casos, as IAs confundiram sátiras com fatos, erraram datas ou criaram eventos inexistentes. O exemplo mais chocante veio da Rádio França, que testou o Gemini, do Google: ao ser perguntado sobre uma suposta saudação nazista de Elon Musk, o sistema afirmou que o bilionário teria “uma ereção no braço direito”, baseando-se em um programa humorístico, mas citando a Rádio França como fonte real. Eis o retrato do perigo: a mentira com aparência de credibilidade.

A falta de fontes confiáveis — ausentes, enganosas ou incorretas — foi o principal problema, responsável por 31% dos casos. E o que isso revela? Que essas tecnologias, ao contrário do que vendem os seus criadores, não são “neutras” nem “objetivas”. Elas operam dentro de uma lógica de mercado, moldada por algoritmos proprietários e por interesses corporativos. Quando uma IA responde, não há jornalismo: há cálculo estatístico. E cálculo algum é capaz de substituir a apuração, o contexto e o compromisso ético que caracterizam o trabalho jornalístico.

O caso do “Papa morto” é outro exemplo sintomático. Quando veículos públicos da Finlândia e da Holanda perguntaram quem era o Papa, ChatGPT, Copilot e Gemini responderam que ainda era Francisco — mesmo ele já tendo falecido e sido sucedido por Leão XIV. Trata-se de um erro que parece banal, mas que, em escala global, mina a confiança nas instituições e reforça a desinformação.

Jean Philip De Tender, vice-diretor geral da UER, foi direto: “Essas falhas não são incidentes isolados. Elas são sistêmicas, transfronteiriças e multilíngues, e isso põe em risco a confiança pública”. Quando o público não sabe em quem confiar, como ele diz, acaba não confiando em nada. E esse é justamente o terreno fértil onde o autoritarismo cresce.

Há, portanto, um pano de fundo mais profundo: a crise de confiança no jornalismo é alimentada não só pela desinformação política ou pelo extremismo ideológico, mas também pela privatização da verdade — pela entrega do processo de produção e disseminação de informação a empresas que não têm compromisso público algum. Enquanto as redações jornalísticas enfrentam cortes, precarização e censura econômica, os grandes conglomerados tecnológicos lucram com a confusão.

Os jovens, especialmente, estão sendo moldados por esse novo ecossistema. O Instituto Reuters revelou que 15% das pessoas com menos de 25 anos usam assistentes de IA semanalmente para se informar. Ou seja, a geração que deveria ser mais crítica, plural e engajada, está sendo educada por sistemas que distorcem fatos e apagam contextos — uma forma de alienação digital sutil, mas poderosa.

Não se trata de demonizar a tecnologia, mas de politizá-la. A IA pode, sim, ser uma ferramenta poderosa para o jornalismo e para o conhecimento, mas desde que seja pública, transparente e regulada. É urgente que os Estados, as universidades e os veículos de comunicação públicos se unam para desenvolver modelos abertos e auditáveis, livres da lógica de lucro e voltados para o interesse coletivo.

A Europa já começa a implementar novas regras de IA, mas enfrenta a resistência das gigantes tecnológicas. Não é surpresa: quem lucra com a opacidade teme a transparência. Enquanto isso, seguimos em uma encruzilhada histórica. Se aceitarmos passivamente que as máquinas decidam o que é verdade, estaremos abrindo mão de um dos pilares da democracia: o direito à informação livre, plural e verificável.

O estudo da UER deixa claro: confiar cegamente em assistentes de IA é abdicar do pensamento crítico. E, em tempos de crise política e de manipulação em massa, pensar criticamente é, mais do que nunca, um ato de resistência.

Com informações de RFI*

Redação:
Related Post

Privacidade e cookies: Este site utiliza cookies. Ao continuar a usar este site, você concorda com seu uso.