▲
- Jornais americanos publicaram uma lista de livros falsa, gerada por inteligência artificial, associando autores reais a obras inexistentes.
- Você pode questionar a confiabilidade de conteúdos gerados por IA e a importância da verificação humana em notícias.
- O incidente afeta a credibilidade dos veículos de comunicação e alerta para riscos da automação sem supervisão.
- O caso também destaca a necessidade de transparência no uso de IA na produção de conteúdo jornalístico.
No mundo da informação, até os jornais de maior credibilidade podem ser pegos de surpresa. Recentemente, alguns veículos de imprensa americanos publicaram uma falsa lista de livros criada por inteligência artificial (IA). A IA “alucinou”, associando autores reais a obras inexistentes, levantando questões sobre a confiabilidade do conteúdo gerado por máquinas e a importância da verificação humana. Mas quem deixou essa bola passar? Vamos aos detalhes!
Como a Falsa Lista de Livros Foi Publicada
No início de maio, o suplemento Heat Index, com dicas para o verão no hemisfério norte, foi publicado em jornais como o Chicago Sun-Times e o Philadelphia Inquirer. Entre as reportagens, havia uma lista de indicações de livros com autores renomados como Andy Weir (Perdido em Marte), Isabel Allende (A Casa dos Espíritos), Min Jin Lee (Pachinko), Taylor Jenkins Reid (Os Sete Maridos de Evelyn Hugo) e Percival Everett (As Árvores). Parecia uma ótima seleção para as férias, certo?
A alegria durou pouco. Logo descobriram que, dos 15 livros recomendados, nove eram completamente inventados. E, dos seis restantes, um foi atribuído à autora errada: Maggie O’Farrell em vez de Charlotte McConaghy. Além das obras inexistentes, a lista incluía citações de especialistas que, segundo o The New York Times, não puderam ser identificados. Outras reportagens do caderno de verão também continham informações falsas, o que só aumentou a confusão.
Para entender melhor, é importante notar que o Heat Index não foi produzido diretamente pelos jornais, mas por uma empresa terceira, a King Features, que faz parte do conglomerado de mídia Hearst. Marco Buscaglia, um escritor contratado pela King Features, assumiu a responsabilidade, explicando que usou inteligência artificial para gerar o conteúdo. Ele admitiu que não verificou a lista produzida pela IA e que utilizou a ferramenta em outros textos do suplemento, o que levou a King Features a rescindir seu contrato.
A Reação dos Jornais e a Responsabilidade
Diante da gafe, tanto o Chicago Sun-Times quanto o Philadelphia Inquirer removeram o conteúdo do ar e emitiram comunicados condenando as reportagens falsas. No entanto, as publicações evitaram assumir a responsabilidade direta pelo ocorrido. O sindicato de funcionários do setor editorial do Sun-Times expressou profunda preocupação com a publicação de conteúdo gerado por IA, destacando o impacto negativo no relacionamento com o público e na jurisdição do sindicato.
Leia também:
Apesar de não se saber qual IA foi usada para criar a lista falsa, o New York Times especula que poderia ser a Claude, da empresa Anthropic. De qualquer forma, o incidente serve como um lembrete de que as inteligências artificiais generativas ainda estão sujeitas a “alucinações”, ou seja, criar textos verossímeis, mas completamente falsos. A história também levanta a questão de como a IA Agentic promete revolucionar o atendimento ao cliente no Brasil, com o risco de disseminar informações incorretas.
Lições Aprendidas com a Falsa Lista de Livros
O caso da falsa lista de livros serve de alerta: é crucial verificar e revisar tudo o que as IAs escrevem antes de publicar. Afinal, a credibilidade de um jornal é construída sobre a confiança do público, e deslizes como esse podem abalar essa relação. A checagem deve ser feita antes que o jornal vá para a gráfica, para evitar a propagação de informações falsas.
Além disso, o incidente levanta questões sobre o uso de inteligência artificial na produção de conteúdo jornalístico. Embora a IA possa ser uma ferramenta útil para agilizar o processo de criação, ela não pode substituir o trabalho humano de apuração, verificação e edição. A supervisão humana é essencial para garantir a qualidade e a precisão das informações publicadas. Afinal, até mesmo o Firefox 139 introduz IA para resumir links antes do clique, o que mostra como a tecnologia está se tornando cada vez mais presente em nossas vidas.
Outro ponto importante é a transparência. Os jornais devem ser transparentes com seus leitores sobre o uso de IA na produção de conteúdo. Quando uma reportagem é gerada com o auxílio de inteligência artificial, isso deve ser informado de forma clara e honesta. A transparência ajuda a construir a confiança do público e a evitar a disseminação de informações falsas. A necessidade de transparência é ainda maior quando lembramos que o núcleo da Terra contém 99% do ouro do planeta, que está vazando lentamente para a superfície, um fato que pode facilmente ser distorcido por uma IA descontrolada.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.