▲
- Jornais americanos publicaram uma lista de livros falsa gerada por inteligência artificial, incluindo autores renomados e obras inexistentes.
- O caso alerta sobre os riscos de confiar cegamente em conteúdo automatizado e a importância da revisão humana.
- A credibilidade dos veículos de comunicação pode ser afetada pela disseminação de informações falsas.
- O incidente reforça a necessidade de verificação rigorosa em conteúdos produzidos por IA.
É cada vez mais comum ver inteligências artificiais (IAs) sendo usadas para criar conteúdo, mas nem sempre o resultado é o esperado. Recentemente, alguns jornais americanos publicaram uma falsa lista de livros gerada por IA, o que gerou discussões sobre a necessidade de revisão humana em conteúdos automatizados. Vamos entender o que aconteceu e o que podemos aprender com isso.
O Erro na Heat Index
No início de maio, o suplemento Heat Index, com dicas para o verão no Hemisfério Norte, foi divulgado em jornais como o Chicago Sun-Times e o Philadelphia Inquirer. Entre as matérias, havia uma lista de livros recomendados com autores renomados como Andy Weir e Isabel Allende, mas logo se descobriu que nove dos 15 livros indicados simplesmente não existiam. Além disso, um dos livros reais foi atribuído à autora errada.
A lista também continha citações suspeitas de especialistas que não puderam ser identificados, segundo o The New York Times. Há suspeitas de que outras reportagens do caderno continham informações falsas, levantando sérias questões sobre a precisão do conteúdo. Para não cair em situações como essa, é fundamental estar atento às atualizações de segurança, como a atualização de segurança de maio de 2025 para Galaxy S23 que chegou à Índia, garantindo que seus dispositivos e informações estejam sempre protegidos.
A Culpa é da IA?
O Heat Index foi produzido pela King Features, um braço da Hearst, e Marco Buscaglia, escritor contratado, assumiu a responsabilidade, admitindo ter usado inteligência artificial para criar o conteúdo. Buscaglia afirmou que não checou a lista gerada pela IA e que usou a ferramenta em outros textos do suplemento. A King Features encerrou o contrato com o escritor.
Os jornais afetados removeram o conteúdo e condenaram as reportagens falsas, mas não assumiram responsabilidade direta. O sindicato de funcionários do Sun-Times expressou preocupação com a publicação de conteúdo gerado por IA e os impactos na relação com o público e na jurisdição do sindicato. E por falar em novas tecnologias, você sabe quais recursos de smartphones são superestimados no mercado?
Leia também:
Alucinação da IA e a Necessidade de Revisão Humana
Ainda não se sabe qual IA foi utilizada para criar a lista falsa, mas especula-se que tenha sido a Claude, da Anthropic. IAs generativas podem “alucinar”, criando textos verossímeis, mas falsos. Essa situação reforça a importância de verificar tudo o que é produzido por essas ferramentas antes da publicação. Afinal, como vimos, até mesmo o CEO do Telegram anuncia integração do Grok, IA de Elon Musk, mostrando que a tecnologia está em constante evolução.
Esse caso serve de alerta sobre os perigos de confiar cegamente na inteligência artificial para a criação de conteúdo. A revisão humana continua sendo essencial para garantir a veracidade e a qualidade das informações, evitando a disseminação de notícias falsas e protegendo a credibilidade dos veículos de comunicação. É crucial que os profissionais da área verifiquem e revalidem todos os dados gerados por sistemas automatizados, especialmente em um contexto onde a tecnologia evolui rapidamente.
Primeira: Este conteúdo foi auxiliado por Inteligência Artificiado, mas escrito e revisado por um humano.
Segunda: Via Super