Intelligenza artificiale e diritto d’autore: la sentenza tedesca contro OpenAI e i rischi per chi usa l’IA
a cura di De Stefano & Iacobacci Avvocati
Introduzione
La diffusione di strumenti di intelligenza artificiale generativa ha aperto scenari inediti sul piano del diritto d’autore. Una recente sentenza del Tribunale regionale di Monaco (Germania), nel caso tra GEMA e OpenAI, ha stabilito che il training di un modello IA su testi protetti può costituire una riproduzione illecita se quei testi possono essere “richiamati” dal sistema.
Vediamo cosa ha deciso il giudice tedesco, quali rischi emergono per sviluppatori e utenti e perché questo precedente riguarda da vicino anche l’Italia.
Il caso GEMA vs OpenAI in breve
La società di gestione collettiva GEMA ha contestato a OpenAI l’uso, senza licenza, di testi di canzoni protette da diritto d’autore per l’addestramento del modello alla base di ChatGPT.
Il tribunale ha ritenuto che:
-
durante il training l’IA memorizza porzioni riconoscibili di opere protette;
-
se l’utente può ottenere in output quei testi (o parti sostanziali), si ha una riproduzione ai sensi del diritto d’autore;
-
tale riproduzione richiede una base legittima: licenza o specifica eccezione di legge.
Ne deriva che non è sufficiente invocare genericamente il text and data mining per giustificare qualsiasi uso di contenuti protetti nel training IA.
Perché la sentenza tedesca è rilevante in Europa e in Italia
Pur essendo una decisione di un giudice nazionale, la sentenza:
-
si inserisce in un quadro europeo in cui il diritto d’autore è fortemente armonizzato;
-
fornisce un’interpretazione che altri tribunali potrebbero seguire;
-
influisce sul dibattito su IA, copyright e fairness nei confronti degli autori.
Per operatori italiani – sviluppatori, start-up, agenzie di comunicazione, aziende che usano IA – il messaggio è chiaro: non si può dare per scontato che i dati di training siano sempre “liberi” da vincoli.
Rischi per sviluppatori e imprese che usano IA
Rischi per chi sviluppa modelli IA
Gli sviluppatori di sistemi IA, soprattutto se addestrati su dati testuali, musicali o visivi, devono:
-
verificare la provenienza dei dataset;
-
valutare se i contenuti utilizzati siano protetti da copyright;
-
considerare la necessità di licenze specifiche o accordi con società di gestione collettiva.
La mancata attenzione a questi profili espone al rischio di:
-
azioni legali per violazione del diritto d’autore;
-
richieste di risarcimento;
-
ordini giudiziali di cessazione dell’uso di determinati modelli.
Rischi per le aziende che usano IA di terzi
Anche le imprese che utilizzano piattaforme IA di terzi (per marketing, produzione di contenuti, assistenti virtuali) devono interrogarsi su:
-
condizioni d’uso degli strumenti;
-
eventuali clausole di manleva sul diritto d’autore;
-
modalità di utilizzo commerciale degli output.
Se un contenuto generato viola il copyright, il titolare del diritto potrebbe colpire sia il fornitore dello strumento IA, sia chi ne ha fatto uso in modo intensivo a fini commerciali.
Cosa fare: linee guida legali per un uso responsabile dell’IA
Per ridurre i rischi legati a IA e diritto d’autore, è consigliabile:
-
Mappare l’uso di IA in azienda: quali strumenti vengono usati? per quali finalità (marketing, testi legali, materiale pubblicitario, ecc.)?
-
Rivedere i contratti con i fornitori di IA, inserendo clausole su:
-
origine lecita dei dati di training;
-
rispetto del diritto d’autore;
-
manleva e ripartizione delle responsabilità.
-
-
Definire policy interne sull’uso dei contenuti generati da IA (es. divieto di usare testi generati come “bozze legali” senza supervisione, controlli su materiale destinato alla pubblicazione).
-
Valutare la necessità di licenze o accordi con titolari di diritti per progetti IA particolarmente sensibili (ad es. in ambito media, editoria, musica).