Nightshade e direitos autorais
Por Maria Paula Monteiro da Silva e Pietra Cardoso de Faria
Na era da inteligência artificial (IA), ferramentas como Nightshade têm desencadeado uma revolução na produção artística. No entanto, enquanto artistas exploram os limites da criatividade com essa tecnologia avançada, surgem complexidades significativas em relação à propriedade intelectual (PI). A questão principal se dá pelo fato de que a Inteligência Artificial Generativa (IAG) tem sido extremamente utilizada na criação de obras intelectuais e artísticas, o que abrange uma ampla gama de mídias, como literatura, arte visuais e música, levantando discussões no que tange aos direitos autorais.1
Uma das principais preocupações atualmente é a internet e as tecnologias digitais associadas a ela, afetando todos de maneira geral. Para os artistas, novas técnicas como as IAs – por exemplo, a DALL-E 2 e a DreamStudio – facilitam a cópia de conteúdo protegido ao capturar imagens sem a autorização dos autores e armazená-las em seus “bancos de dados”. Isso permite que essas imagens sejam facilmente copiadas, redistribuídas e até modificadas por qualquer usuário ou pela própria IA, sem a autorização do autor e sem o devido reconhecimento pela criação da arte.
Como consequência disso, a ferramenta Nightshade foi desenvolvida para “desestabilizar” IAs generativas (IAG) que utilizam imagens protegidas por direitos autorais. A ferramenta opera realizando pequenas modificações sutis nos pixels da imagem, que enganam os modelos de aprendizado de máquina, fazendo-os interpretar a imagem de forma equivocada. Como resultado, as plataformas afetadas podem perder a capacidade de reconhecer alguns elementos, não conseguindo mais identificar, por exemplo, um animal de um objeto.
A intenção da ferramenta tem como base a criação de amostras de “veneno” que possam minimizar essas fontes de interferência – modelos generativos de texto para imagem – que são justamente os dados que a IAG captura para treinamento de seus dados internos. Dessa forma, a ferramenta injeta o prompt-específico para ataques de “envenenamento” que corrompem a capacidade de resposta de um modelo para prompts específicos. Ou seja, os desenvolvedores, ao injetarem dados envenenados, conseguem automatizar a codificação com um gatilho escondido – por exemplo, um pixel específico – para degradar o desempenho de captura dos modelos treinados pela IA.2
Além disso, a ferramenta também pode gerar imagens de veneno furtivas, ou seja, causar uma imagem visualmente idêntica. Estas ferramentas também procuram evitar que os usuários realizem cópias locais de modelos de imagens de um único artista. Portanto, a ferramenta busca corromper o modelo base, tal que seu comportamento será alterado para todos os usuários.
Observa-se, assim, que o ambiente digital tem intensificado as preocupações dos artistas em relação à produção de suas obras, devido à capacidade de qualquer usuário ou IAG modificar e capturar essas imagens sem respeitar os direitos ligados à obra original. Nesse contexto, ferramentas como Nightshade suscitam questões éticas no uso dessas tecnologias, especialmente quando aplicadas a obras protegidas por direitos autorais. Portanto, é essencial considerar os direitos dos artistas e empregar tais ferramentas de maneira ética e legalmente responsável, apesar de sua utilidade na edição criativa.
- CAMPOS, R. S. Desmistificando a Inteligência Artificial: uma breve introdução conceitual ao aprendizado de máquina. Aoristo: International Journal of Phenomenology, Hermeneutics and Metaphysics, [s.l.], v. 3, n. 1, p. 106–123, 2020. ↩︎
- WENGER, Emily,“Backdoor attacks against deep learning systems in the physical world,” in Proc. of CVPR, 2021. ↩︎