A OpenAI se viu em meio a uma controvérsia após apagar, supostamente por engano, evidências relacionadas a um processo judicial por plágio de artigos do New York Times. Os dados, que serviam como prova em uma disputa judicial, foram eliminados em um incidente que a empresa descreveu como um “glitch”.
O New York Times acusou a OpenAI em dezembro de 2023 de ter “copiado e utilizado” milhões de artigos do veículo para treinar seus modelos de linguagem, como o ChatGPT e o Copilot. O processo destacou que respostas geradas por esses modelos continham trechos inteiros de publicações do jornal, além de imitar seu estilo literário.
No dia 20 de novembro, a OpenAI confirmou que as evidências foram apagadas acidentalmente. Segundo os advogados da empresa, engenheiros deletaram todos os dados armazenados em máquinas virtuais dedicadas à investigação. A defesa do New York Times não acredita que a exclusão tenha sido um erro técnico, afirmando que não há motivos para aceitar essa explicação.
Após a exclusão, a OpenAI tentou recuperar os dados, mas os arquivos recuperados estavam incompletos e não podiam ser utilizados para verificar se os artigos do New York Times foram de fato usados no treinamento dos modelos. Para movimentar a disputa judicial, o jornal já investiu cerca de US$ 1 milhão (aproximadamente R$ 5,8 milhões) e busca que a OpenAI seja responsabilizada por danos que podem chegar a bilhões de dólares.
Esse caso levanta questões importantes sobre o plágio de artigos e os limites do uso de conteúdo protegido por direitos autorais na era da inteligência artificial. A situação continua a se desenrolar, e o desfecho desse processo pode ter implicações significativas para o futuro da tecnologia e da propriedade intelectual.
Para mais informações sobre como a inteligência artificial está moldando o futuro, confira também as profissões do futuro até 2030 e como o ChatGPT pode impactar os negócios online.
Via TecMundo