Um estudo da BBC revelou que quatro dos principais Chatbots de IA imprecisos – ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity AI – apresentaram resultados ruins na sumarização de notícias. A BBC alimentou os serviços com conteúdo de seu próprio website e, em seguida, fez perguntas sobre as notícias. Mais da metade das respostas continham “imprecisões significativas” e distorções.
Chatbots de IA imprecisos e a qualidade da informação
Entre os erros, o Gemini afirmou incorretamente que o NHS (Serviço Nacional de Saúde do Reino Unido) não recomendava o uso de cigarros eletrônicos como auxílio para parar de fumar. O ChatGPT e o Copilot indicaram erroneamente que os políticos Rishi Sunak e Nicola Sturgeon ainda estavam no cargo. O Perplexity também citou incorretamente uma reportagem da BBC News sobre o Oriente Médio.
Disse que o Irã demonstrou “moderação” e chamou as ações de Israel de “agressivas” – adjetivos que não apareceram na reportagem original. Deborah Turness, CEO da BBC News e Current Affairs, escreveu em um blog post: “O preço dos benefícios extraordinários da IA não deve ser um mundo onde as pessoas que buscam respostas recebem conteúdo distorcido e defeituoso que se apresenta como fato”.
E continuou: “Em um mundo que pode parecer caótico, certamente não pode estar certo que os consumidores que buscam clareza encontrem ainda mais confusão”. Turness, que foi presidente da NBC News de 2013 a 2017, observou que a BBC está buscando várias iniciativas de IA e conversando com empresas de tecnologia para desenvolver novas ferramentas automatizadas.
Ela pediu às gigantes da tecnologia que retirassem os alertas, fazendo uma pergunta direta: “Vivemos em tempos difíceis e quanto tempo levará para que uma manchete distorcida por IA cause danos significativos no mundo real?”. As descobertas surgem quase um mês depois que a Apple interrompeu os alertas de notícias alimentados por IA. Vários deles se mostraram imprecisos.
Leia também:
Jornalistas relatam erros em alertas de notícias gerados por IA
Jornalistas e organizações de notícias informaram à gigante da tecnologia sobre uma série de erros. Um alerta gerado pela Apple da BBC News disse falsamente aos leitores que Luigi Mangione, o homem acusado de atirar fatalmente no CEO da United Healthcare, havia atirado em si mesmo. Na verdade, ele foi preso e está na cadeia aguardando julgamento.
Outro alerta informou falsamente a alguns usuários do aplicativo BBC Sport que a estrela do tênis Rafael Nadal havia se assumido gay. Turness elogiou a “decisão ousada e responsável” da Apple de suspender os alertas. Considerou os “altos riscos” do esforço para acertar as coisas. “As empresas que desenvolvem ferramentas Gen AI estão brincando com fogo”, declarou.
No estudo, a BBC pediu a jornalistas e especialistas que avaliassem as respostas dos chatbots. Determinaram que 51% de todas as respostas geradas por IA tinham falhas. 19% das respostas que citavam conteúdo da BBC, na verdade, introduziam erros, incluindo declarações incorretas de fatos, números e datas. Novas alternativas aos assistentes de IA estão surgindo no mercado.
A BBC continua investindo em iniciativas de IA, buscando aprimorar as ferramentas automatizadas de notícias. Contudo, a precisão das informações ainda é um desafio para os Chatbots de IA imprecisos. A busca por soluções que minimizem as distorções e garantam a confiabilidade do conteúdo gerado por IA é crucial para o futuro do jornalismo.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Deadline