Abstract
Con l’ordinanza del 23 giugno 2025 nel caso Bartz et al. v. Anthropic PBC (US District Court, N.D. California, No. C 24-05417 WHA), il giudice William Alsup ha stabilito che l’uso di libri protetti da copyright per addestrare modelli di intelligenza artificiale può costituire fair use. La decisione, che assolve Anthropic per l’uso delle opere nel training del modello Claude, distingue però nettamente tra uso trasformativo e pirateria: se addestrare un’IA è come uno studente che legge, ma non copia, scaricare milioni di libri da siti illegali resta una violazione perseguibile. Un precedente potente per le Big Tech, ma con effetti limitati al diritto statunitense.
Una biblioteca pirata di 7 milioni di libri: il caso Anthropic
Nel gennaio 2021, un gruppo di ex dipendenti di OpenAI fonda Anthropic PBC, con l’obiettivo dichiarato di sviluppare modelli linguistici avanzati per intelligenza artificiale. Il progetto si concretizza in Claude, un chatbot capace di produrre testi in linguaggio naturale, simile a ChatGPT. Ma per addestrare Claude, Anthropic non parte da zero: decide di costruire una “libreria centrale”, un archivio digitale privato da cui trarre i testi su cui basare l’addestramento.
È in questo passaggio che inizia il problema legale. Invece di acquistare licenze, accordarsi con editori o reperire contenuti pubblici, Anthropic scarica milioni di libri da siti pirata. Le fonti principali sono tre: Books3, Library Genesis (LibGen) e Pirate Library Mirror (PiLiMi). Tra il 2021 e il 2022, la società accumula oltre 7 milioni di opere, tutte in formato digitale (.pdf, .txt, .epub), spesso accompagnate da metadati bibliografici. I testi vanno a formare una raccolta pensata per durare “per sempre” e contenere “tutti i libri del mondo”.
Nel 2024, consapevole della fragilità legale della propria posizione, Anthropic prova a rimediare: acquista milioni di libri cartacei da grossisti e mercati dell’usato, li scansiona uno a uno e ne distrugge l’originale, convertendoli in copie digitali destinate sempre alla libreria interna. I dati raccolti, sia piratati che scansionati, vengono rielaborati in dataset selettivi (i cosiddetti data mix) per addestrare diverse versioni del modello Claude.
Ma alla fine del 2024, tre autori statunitensi — Andrea Bartz, Charles Graeber e Kirk Wallace Johnson — scoprono che i loro libri compaiono nei dataset utilizzati da Anthropic. Insieme alle rispettive società editoriali, depositano una class action presso il tribunale federale del Distretto Nord della California. L’accusa è pesante: violazione sistematica del diritto d’autore su scala industriale. Il caso è assegnato al giudice William Alsup.
Il più trasformativo degli usi, secondo il giudice Alsup
Con l’ordinanza del 23 giugno 2025, il giudice William Alsup ha emesso la prima decisione giudiziaria americana che affronta frontalmente la questione dell’uso di opere protette da copyright per addestrare modelli di intelligenza artificiale generativa. E lo ha fatto con parole destinate a lasciare il segno: secondo Alsup, l’addestramento di un LLM come Claude è “intrinsecamente e straordinariamente trasformativo” (“exceedingly transformative”).
Il ragionamento si sviluppa attorno a una metafora centrale: Claude non è una macchina che copia, ma un sistema che apprende. Come un essere umano che legge per scrivere meglio, anche un modello linguistico può assimilare il contenuto dei libri senza riprodurlo. “Come qualsiasi lettore che aspira a diventare scrittore”, scrive Alsup, “l’LLM si addestra su opere non per replicarle, ma per voltare pagina e creare qualcosa di diverso”.
Il giudice sottolinea anche che gli autori non hanno accusato Claude di riprodurre passaggi protetti delle loro opere nei risultati forniti agli utenti. Nessun output del modello è stato giudicato lesivo. È questa, osserva Alsup, la differenza principale rispetto a casi di plagio: ciò che viene messo in discussione non è cosa restituisce l’IA, ma cosa ha letto per imparare.
Il principio che ne deriva è netto: “non si può chiedere un pagamento ogni volta che un libro viene letto, ricordato o usato per ispirarsi”. Questa affermazione — che riecheggia un’idea forte di conoscenza come bene da condividere — è al centro della decisione. E in essa si riflette una visione del diritto d’autore fortemente orientata a “promuovere il progresso della scienza e delle arti”, come recita l’articolo I della Costituzione degli Stati Uniti.
Alsup riconosce che l’uso di intere opere per addestrare un’IA è quantitativamente massivo, ma lo considera proporzionato allo scopo: un modello linguistico ha bisogno di miliardi di parole per apprendere. Per questo, afferma, usare un intero libro è “tanto ragionevole quanto usarne un altro” in un dataset di milioni di testi.
Come funziona il “fair use” americano
Il giudice William Alsup, nella sua ordinanza del 23 giugno 2025, ha applicato uno degli strumenti più flessibili — e controversi — del diritto d’autore statunitense: il cosiddetto “fair use”, previsto dalla Sezione 107 del Copyright Act. Non è una regola rigida, ma un test su quattro fattori, da applicare caso per caso.
- Scopo e natura dell’uso
- Natura dell’opera copiata
- Quantità e sostanzialità della parte usata
- Effetto sul mercato dell’opera
Vediamo come Alsup ha applicato questi quattro criteri alle copie usate per addestrare Claude, e in particolare ai libri protetti da copyright.
- Secondo Alsup, l’uso da parte di Anthropic è “spettacolarmente trasformativo” (exceedingly transformative). L’IA non copia né rimpiazza le opere degli autori, ma “come un lettore che aspira a diventare scrittore”, volta pagina e crea qualcosa di diverso. Non importa che Anthropic sia un’azienda commerciale: ciò che conta è che l’opera venga usata per creare un prodotto nuovo e autonomo, non per sfruttare direttamente il contenuto originale. Questo fattore pesa fortemente a favore del fair use.
- Qui Alsup è cauto. I libri coinvolti, sia romanzi che saggistica, sono opere espressive, pubblicate e creative: rientrano dunque nel “cuore” della protezione garantita dal copyright. Questo fattore gioca contro il fair use, ma — precisa il giudice — ha un peso minore rispetto agli altri tre.
- Anthropic ha copiato intere opere. In altri casi, questo sarebbe un punto a sfavore. Ma Alsup spiega che per addestrare un LLM servono miliardi di parole: usare un intero libro è “tanto ragionevole quanto usarne un altro”. Inoltre, non ci sono prove che Claude restituisca al pubblico passaggi riconoscibili o sostanziali delle opere originali. Quindi, anche questo fattore favorisce il fair use.
- Gli autori sostengono che Claude possa produrre contenuti concorrenti, riducendo la domanda per le loro opere. Ma Alsup respinge l’argomento: “insegnare a scrivere bene agli studenti non distrugge il mercato degli scrittori”. Finché l’IA non restituisce passaggi copiati, non c’è lesione economica. Anche questo fattore pende a favore del fair use.
Qual è il risultato finale? Il giudice concede ad Anthropic il giudizio sommario favorevole: l’uso dei libri protetti per addestrare Claude è fair use. Ma chiarisce: se un domani un LLM cominciasse a riprodurre interi brani protetti, si aprirebbe un’altra causa. Il fair use protegge l’addestramento, non la riproduzione.
E per la “biblioteca pirata”? Il fair use non vale
Alsup distingue nettamente tra l’uso delle opere per addestrare Claude e l’uso delle stesse per costruire una biblioteca digitale generalista, destinata a durare “per sempre”. In questo secondo contesto, il fair use non si applica — e i quattro fattori portano in tutt’altra direzione.
Per le copie acquistate e digitalizzate, Alsup ammette il fair use: trasformare un libro cartaceo in un file PDF a uso interno non sfrutta il contenuto creativo, ma serve solo a migliorare ricerca e archiviazione. Nessuna copia in più è stata distribuita, e ogni file ha sostituito fisicamente l’originale distrutto. È un uso “tecnicamente trasformativo”.
Ma per i 7 milioni di libri scaricati da siti pirata, il giudice è severo: la pirateria non può essere sanata a posteriori. Nemmeno se l’opera pirata finisce in un dataset destinato a un uso legittimo. Creare una biblioteca centralizzata, copiando sistematicamente opere che si potevano acquistare, non è trasformativo: è “un uso a sé stante — e illecito”.
Alsup scrive chiaramente: “Non puoi autoassolverti dicendo di avere uno scopo di ricerca e dunque prendere gratis qualsiasi manuale ti serva. Se così fosse, verrebbe distrutto il mercato dell’editoria accademica.” L’uso di opere pirata, anche se in parte poi utilizzate per il training, non è coperto dal fair use. Su questo punto, il giudice nega il giudizio favorevole ad Anthropic e dispone che si vada a processo per stabilire i danni causati dalla conservazione delle copie illegali.
Perché questa è una vittoria per le Big Tech, ma solo negli Stati Uniti?
La sentenza del giudice Alsup è stata accolta come una vittoria decisiva per le aziende di intelligenza artificiale. Per la prima volta un tribunale ha dichiarato che addestrare un modello linguistico su libri protetti da copyright può rientrare nel fair use, purché non vi siano riproduzioni nei risultati e l’uso sia trasformativo. La formula magica, che ha fatto tirare un sospiro di sollievo in tutta la Silicon Valley, è semplice: training AI is fair use.
Il verdetto ha dato un robusto scudo legale alle Big Tech, almeno per il momento. L’idea che un modello AI possa “leggere per imparare” proprio come uno studente umano — senza dover pagare licenze — è stata accolta con favore dagli sviluppatori e da chi investe in IA. Come ha sintetizzato un commentatore del settore: “leggere non è rubare”, purché il modello non “rigurgiti” i testi in pubblico.
Ma questa vittoria vale solo sul suolo americano. In Europa, e in particolare in Italia, il “fair use” come lo concepiscono i tribunali statunitensi non esiste. Qui le eccezioni al diritto d’autore sono tipizzate, cioè previste tassativamente dalla legge. Il Text and Data Mining (TDM), per esempio, è consentito solo se i contenuti sono stati legalmente accessibili e se l’autore non ha esercitato un diritto di opt-out. Nulla di paragonabile alla flessibilità interpretativa della Sezione 107 del Copyright Act americano.
Inoltre, in Europa l’effetto sul mercato e l’origine dei contenuti sono fattori centrali, non marginali. Un uso che sottrae valore economico all’autore — anche solo potenziale — difficilmente verrebbe considerato lecito. E scaricare opere da fonti pirata, come fatto da Anthropic, basterebbe da solo a escludere qualunque giustificazione.
In sintesi, le Big Tech possono festeggiare negli Stati Uniti, ma la stessa condotta, se replicata in Europa, sarebbe probabilmente sanzionata. La sentenza Alsup apre un fronte di dibattito globale: il diritto d’autore è pronto per l’era dell’IA? E, soprattutto, si può affidare ai giudici una valutazione che verosimilmente spetterebbe al Congresso?
© Canella Camaiora S.t.A. S.r.l. - Tutti i diritti riservati.
Data di pubblicazione: 3 Luglio 2025
È consentita la riproduzione testuale dell’articolo, anche a fini commerciali, nei limiti del 15% della sua totalità a condizione che venga indicata chiaramente la fonte. In caso di riproduzione online, deve essere inserito un link all’articolo originale. La riproduzione o la parafrasi non autorizzata e senza indicazione della fonte sarà perseguita legalmente.

Arlo Canella
Managing & founding partner, avvocato del Foro di Milano e cassazionista, responsabile formazione e ricerca indipendente dello Studio CC®.