Il Regno Unito alla ricerca di una Via nell’ecosistema IA

Il Regno Unito alla ricerca di una Via nell’ecosistema IA

Autore: Vimana Grioni

Il recente articolo di Angela Daly riportato da "IPkitten" (https://ipkitten.blogspot.com/2024/12/guest-post-ai-training-data-copyright.html) affronta una questione cruciale che definisce il nostro tempo: come bilanciare l’accesso ai dati per l’intelligenza artificiale con la protezione dei diritti d’autore e degli interessi dei creatori?
Questa riflessione non è solo tecnica, ma profondamente politica e culturale e il Regno Unito, con la sua recente consultazione, sembra trovarsi al centro di un dilemma che riguarda molto più della sola regolamentazione.

Il tema dei dati di training è emblematico: per sviluppare modelli IA avanzati servono enormi quantità di dati, ma la loro provenienza, il loro utilizzo e il loro impatto sollevano questioni legali e morali che non possono essere ignorate. In Europa, l’Articolo 4 della Direttiva 2019/790 consente un’eccezione al text and data mining (TDM) per scopi commerciali, a condizione che i titolari dei diritti non abbiano esplicitamente negato il consenso. Il Regno Unito, invece, adotta una posizione più cauta limitando l’eccezione al solo ambito non commerciale (sezione 29A del Copyright, Designs and Patents Act del 1988). La consultazione in corso tenta di ampliare queste eccezioni, ma il quadro complessivo rimane confuso e frammentario.

Questa mancanza di chiarezza, come sottolinea anche Daly, riflette la condizione “betwixt and between” del Regno Unito post-Brexit: non più allineato all’Unione Europea, ma nemmeno incline a seguire l’approccio statunitense basato sul fair use. E qui emerge un punto chiave: il Regno Unito sta davvero cercando di guidare il dibattito globale sull’IA o si sta limitando a inseguire le decisioni degli altri?

La leadership tecnologica richiede coraggio e visione, ma anche la capacità di anticipare le conseguenze delle scelte politiche. La consultazione propone l’introduzione di un’eccezione TDM commerciale, ma senza un quadro di trasparenza e responsabilità adeguato, come quello delineato dall’AI Act europeo (Articolo 53(1)(d), che richiede la dichiarazione dell’origine dei dati di training), si rischia di perpetuare dinamiche di sfruttamento. Non possiamo ignorare che le opere creative sono spesso il “carburante” di questi sistemi di IA, ma i creatori raramente ne traggono benefici diretti.
È giusto sacrificare i diritti di chi crea in nome dell’innovazione?

Per esempio, i casi di Getty Images contro Stability AI e Mumsnet contro OpenAI dimostrano quanto il tema sia complesso. La difesa di Stability AI, basata sul fatto che il training del modello sia avvenuto fuori dal Regno Unito, mette in evidenza un problema strutturale: la territorialità del copyright. Questo apre una questione fondamentale per il futuro della regolamentazione: come armonizzare le leggi a livello globale per evitare che le aziende sfruttino lacune normative? E soprattutto, come garantire che i benefici dell’IA siano distribuiti equamente tra chi sviluppa, chi utilizza e chi contribuisce con i propri dati?

Il problema non è solo giuridico, ma anche culturale. Il Regno Unito sembra oscillare tra l’imitazione dell’approccio europeo e il desiderio di emanciparsi per rafforzare la propria posizione geopolitica. Ma questa ambiguità non è sinonimo di leadership. Una regolamentazione frammentata rischia di allontanare sia gli sviluppatori, che chiedono regole chiare e coerenti, sia i creatori, che si sentono sempre più marginalizzati in un sistema che privilegia il profitto delle grandi aziende tecnologiche.

Ciò che manca è una visione strategica.
Un sistema davvero innovativo dovrebbe integrare trasparenza, redistribuzione del valore e sostenibilità. Modelli come quelli proposti dalla Coalition for Content Provenance and Authenticity (C2PA) offrono spunti interessanti: la tracciabilità dei dati e la possibilità di monetizzarli potrebbero rappresentare una svolta per garantire che l’IA non sia solo al servizio di pochi, ma di un ecosistema equilibrato.

L’articolo di Daly, con la sua analisi puntuale, ci ricorda che non si tratta solo di stabilire regole per il presente, ma di definire il futuro della società in cui vogliamo vivere. La leadership non si misura solo in termini di competitività economica, ma nella capacità di creare un equilibrio tra progresso e diritti, tra innovazione e cultura.

Il Regno Unito ha un’occasione unica: quella di guidare un dibattito globale che affronti queste sfide con coraggio e lungimiranza. Ma per farlo deve superare l’atteggiamento reattivo e costruire un sistema normativo che sia un modello, non una copia. Solo allora potrà rivendicare con credibilità il ruolo di leader nell’era dell’intelligenza artificiale.
Altrimenti, rischia di restare uno spettatore, in un mondo che corre avanti senza di lui.

 


Note aggiuntive:

  • Direttiva UE 2019/790 Articolo 4: l'Articolo 4 della Direttiva (UE) 2019/790 sul diritto d'autore nel mercato unico digitale introduce un'eccezione per il text and data mining (TDM) a fini commerciali, consentendo l'estrazione di testo e dati da contenuti legalmente accessibili, a meno che i titolari dei diritti non abbiano espressamente riservato tale utilizzo.

  • Copyright, Designs and Patents Act 1988 Sezione 29A: la Sezione 29A del Copyright, Designs and Patents Act del 1988 del Regno Unito prevede un'eccezione per il TDM esclusivamente per scopi di ricerca non commerciale, permettendo la copia di opere protette da copyright per analisi computazionale, purché l'accesso all'opera sia legale e l'uso sia accompagnato da un'adeguata attribuzione.

  • AI Act Europeo Articolo 53(1)(d): l'Articolo 53(1)(d) del Regolamento (UE) 2024/1689 sull'intelligenza artificiale stabilisce obblighi per i fornitori di modelli di IA generici, richiedendo la redazione e l'aggiornamento della documentazione tecnica del modello, inclusi i processi di addestramento e test, al fine di garantire trasparenza e conformità alle normative.

  • Caso Getty Images contro Stability AI: nel dicembre 2023, un tribunale del Regno Unito ha autorizzato Getty Images a procedere con una causa contro Stability AI per presunta violazione del copyright, accusando l'azienda di aver utilizzato milioni di immagini senza autorizzazione per addestrare il modello di intelligenza artificiale Stable Diffusion.

  • Coalition for Content Provenance and Authenticity (C2PA): la C2PA è un'iniziativa che mira a contrastare la diffusione di informazioni fuorvianti online attraverso lo sviluppo di standard tecnici per certificare la provenienza e l'autenticità dei contenuti multimediali.

Post a Comment

Translate