Histórias de ficção científica nos fizeram acreditar que a guerra entre humanos e inteligência artificial envolveria explosões, mas na realidade, a luta contra nossos amigos sintéticos tomou um rumo muito mais sutil, porém talvez igualmente eficaz.
O que é o veneno de IA?
Com a IA generativa, como o GPT ou DALL-E, esses programas desenvolvem a capacidade de criar escrita, música, vídeo e imagens aprendendo de conjuntos de dados massivos.
É assim que um programa como MidJourney pode criar qualquer imagem arbitrária que você peça, como “Um unicórnio fumando charuto no estilo de Van Gogh” ou “Um robô bebendo veneno”, como o pessoal do HowtobeGeek pediu ironicamente que o MidJourney desenhasse. Essa é certamente uma capacidade incrível para um programa de computador ter, e os resultados têm melhorado aos saltos e limites.
- Golpes por telefone: como a ‘vovó de IA’ engana os bandidos
- Modo de voz avançado do ChatGPT agora disponível para PCs e Macs
- Perplexity Lança App Nativo para macOS com Busca AI
No entanto, muitos artistas cujo trabalho foi usado como parte desse conjunto de dados não estão felizes com isso. O problema é que, até o momento desta escrita, usar essas imagens para treinar modelos de IA está em uma área legal cinzenta ou não é proibido por lei, dependendo da região. Como de costume, a legislação levará algum tempo para acompanhar a tecnologia, mas nesse meio tempo, uma possível solução na forma de “veneno de IA” surgiu.
Um veneno de IA altera algo que pode ser usado para treinar um modelo de IA de tal forma que torna os dados inúteis ou até prejudica o modelo, fazendo-o funcionar mal. As mudanças feitas no material de origem são de tal maneira que um humano não notaria. É aí que ferramentas como Nightshade e Glaze entram em cena.
Imaginem que você tenha uma foto de um cachorro. Uma ferramenta de veneno de IA pode alterar os pixels da imagem de tal forma que, para nós, a foto ainda parece um cachorro, mas para uma IA treinada nessa imagem “envenenada”, o cachorro pode estar associado a algo completamente diferente, como um gato ou um objeto aleatório. Isso é semelhante a ensinar a IA a informação errada de propósito.
Quando um modelo de IA é treinado em um número suficiente dessas imagens “envenenadas”, sua capacidade de gerar imagens precisas ou coerentes com base em seus dados de treinamento é comprometida. A IA pode começar a produzir imagens distorcidas ou interpretações completamente incorretas de certos prompts.
Por que existem venenos de IA?
Como mencionei brevemente acima, os venenos de IA existem para dar aos artistas (no caso de conteúdo visual) uma maneira de lutar contra o uso de suas imagens para treinar modelos de IA. Há várias razões pelas quais estão preocupados, incluindo, mas não se limitando a:
- Medo de serem substituídos ou perderem trabalho para a IA.
- Terem seu estilo artístico único e identidade replicados.
- Sentirem que seus direitos intelectuais foram infringidos, independentemente das leis atuais que se apliquem.
Dado a natureza da internet e a facilidade de “raspar” dados da web, esses artistas são impotentes para impedir que suas imagens sejam incluídas em conjuntos de dados. No entanto, “envenenando-as”, não apenas podem impedir a utilização de seu trabalho, mas também podem prejudicar o modelo como um todo.
Assim, esses venenos podem ser vistos como uma forma prática de autodefesa e como uma forma de protesto.
Isso é tarde demais?
Embora a ideia de venenos de IA para impedir que modelos de arte de IA usem certas imagens seja interessante, pode ser tarde demais para alcançar os objetivos que impulsionaram sua invenção em primeiro lugar.
Primeiro, esses venenos não afetarão nenhum modelo de geração de imagens existente. Portanto, quaisquer habilidades que já possuem são para ficar. Só afeta o treinamento de modelos futuros.
Em segundo lugar, os pesquisadores de IA aprenderam muito durante as fases iniciais do treinamento desses modelos. Agora existem abordagens para treinar modelos que podem funcionar com conjuntos de dados muito menores. Eles não precisam da enorme quantidade de imagens que precisavam antes, e a necessidade de raspar grandes quantidades de dados da web pode não ser mais a prática padrão no futuro.
Em terceiro lugar, agora que os modelos já existem, é possível treiná-los em conjuntos de dados “éticos”. Em outras palavras, conjuntos de dados que têm permissão ou direitos explícitos para serem usados para treinar IA. Isso é o que a Adobe tentou com seu Firefly e seu conjunto de dados de fonte ética.
Portanto, embora os venenos de IA possam certamente impedir modelos de incluir seu trabalho, ou tornar conjuntos de dados raspados da web como um todo inúteis, é improvável que faça algo sobre o avanço e implementação da tecnologia a partir deste ponto em diante.