Artistas podem "envenenar" IA para distorcer resultados de imagens; entenda
A relação da inteligência artificial (IA) com direitos autorais ainda é área sem regulações e provoca embates entre desenvolvedoras e artistas.
Por Adeilson em 27/10/2023 às 00:30:30
A relação da inteligência artificial (IA) com direitos autorais ainda é área sem regulações e provoca embates entre desenvolvedoras e artistas. Agora, uma nova ferramenta chamada Nightshade permite que os usuários de sistemas de IA que convertem texto em imagem “envenenem” o software para que ele pare de funcionar e gerar resultados satisfatórios.
Veneno
O Nighshade funciona de forma simples: basta que os usuários desses softwares de IA o anexem ao seu pedido e ele corromperá o programa.
Um dos exemplos disso é como ela pode alterar a visualização dos pixels da imagem final ou fazer com que o chatbot leia um objeto como algo completamente diferente, entregando resultado inesperado.
Segundo o The Verge, isso pode desconfigurar as configurações de softwares, como DALL-E, Stable Diffusion e Midjourney e, a longo prazo, limitar a capacidade de criar imagens artificiais.
Um professor da Universidade de Chicago, Ben Zhao, é um dos criadores do Nighshade e disse ao MIT Technology Review que a intenção do “veneno” é desviar a balança das empresas de IA que utilizaram obras com direitos autorais para treinar modelos de linguagem;
Ainda, o artigo de pesquisa do Nightshade mostra como softwares de conversão de texto em imagem são vulneráveis a ataques, que podem desestabilizar os programas e tirar sua capacidade de geração;
Para intensificar a situação, o Nightshade está integrado ao Glaze, ferramenta dos mesmos criadores que mascara o estilo de arte de artistas, para que a IA não possa reproduzi-las;
Esses criadores propuseram no artigo que esses programas “hackers” poderiam, em última instância, ser usados como defesa dos artistas contra as empresas de IA que se aproveitam de seus trabalhos.