Avvelenare i dati delle IA per difendere le propre creazioni artistiche

Torno a trattare il tema della tutela delle opere grafiche/artistiche nei confronti dei modelli di intelligenza artificiale.

La tecnologia è venuta incontro agli artisti con un nuovo strumento, chiamato Nightshade, che permette di "avvelenare" i dati utilizzati nell'addestramento delle IA generative.
In sostanza, quando un'opera d'arte viene caricata online, Nightshade apporta modifiche invisibili ai pixel. Se questa opera venisse poi utilizzata in un set di addestramento IA senza il consenso del creatore, le modifiche causerebbero malfunzionamenti nel modello finale dell'IA. Indubbiamente un modo creativo per combattere l'uso non autorizzato delle opere artistiche. In aggiunta, Nightshade sarà open source!

Ma non è tutto: Nightshade verrà integrato prossimamente in Glaze, che consente agli artisti di mascherare il loro stile personale, offrendo un ulteriore livello di protezione contro la raccolta non autorizzata da parte delle aziende IA.

Questi strumenti rappresentano un passo importante verso il ribilanciamento del potere tra artisti e grandi corporazioni tecnologiche, creando un potente deterrente contro il mancato rispetto del copyright e della proprietà intellettuale.

Il Massachusetts Institute of Technology, che ha analizzato in anteprima la ricerca scientifica alle spalle del progetto Nightshade, ha contattato Meta, Google, Stability AI e OpenAI esponendo il progetto e chiedendo come avrebbero pensato di agire di fronte alla possibilità dell' "avvelenamento" dei dataset.
Nessuno ha ancora risposto.

Seguo il progetto e attendo sviluppi!

Per approfondire:
1) Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models: https://arxiv.org/abs/2310.13828

2) Glazehttps://glaze.cs.uchicago.edu/index.html

Post a Comment

Translate