Torno a trattare il tema della tutela delle opere grafiche/artistiche nei confronti dei modelli di intelligenza artificiale.
La
tecnologia è venuta incontro agli artisti con un nuovo strumento,
chiamato Nightshade, che permette di "avvelenare" i dati utilizzati
nell'addestramento delle IA generative.
In sostanza, quando un'opera
d'arte viene caricata online, Nightshade apporta modifiche invisibili ai
pixel. Se questa opera venisse poi utilizzata in un set di
addestramento IA senza il consenso del creatore, le modifiche
causerebbero malfunzionamenti nel modello finale dell'IA. Indubbiamente
un modo creativo per combattere l'uso non autorizzato delle opere
artistiche. In aggiunta, Nightshade sarà open source!
Ma non è
tutto: Nightshade verrà integrato prossimamente in Glaze, che consente
agli artisti di mascherare il loro stile personale, offrendo un
ulteriore livello di protezione contro la raccolta non autorizzata da
parte delle aziende IA.
Questi strumenti rappresentano un passo
importante verso il ribilanciamento del potere tra artisti e grandi
corporazioni tecnologiche, creando un potente deterrente contro il
mancato rispetto del copyright e della proprietà intellettuale.
Il
Massachusetts Institute of Technology, che ha analizzato in anteprima
la ricerca scientifica alle spalle del progetto Nightshade, ha
contattato Meta, Google, Stability AI e OpenAI esponendo il progetto e
chiedendo come avrebbero pensato di agire di fronte alla possibilità
dell' "avvelenamento" dei dataset.
Nessuno ha ancora risposto.
Seguo il progetto e attendo sviluppi!
Per approfondire:
1) Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models: https://arxiv.org/abs/2310.13828
2) Glaze: https://glaze.cs.uchicago.edu/index.html