
Photo by Dat Nguyen on Unsplash
Anthropic vince una decisione chiave nella causa per violazione di copyright, ma affronta un processo per libri piratati
Un giudice federale ha dato ragione ad Anthropic lunedì durante un caso di diritto d’autore negli Stati Uniti. Il giudice distrettuale William Alsup di San Francisco ha stabilito che l’azienda di intelligenza artificiale non ha violato la legge utilizzando milioni di libri protetti da copyright per addestrare il suo chatbot Claude. Tuttavia, l’azienda dovrà comunque affrontare un processo per libri piratati conservati.
Hai fretta? Ecco i fatti salienti:
- Un giudice di San Francisco si pronuncia a favore di Anthropic nel caso di diritto d’autore, ritenendo che l’azienda abbia fatto un “uso lecito” dei libri per addestrare il suo chatbot AI, Claude.
- Il giudice descrive l’uso del materiale da parte di Claude come “quintessenzialmente trasformativo”.
- La startup di AI deve ancora affrontare il processo per il suo presunto uso di 7 milioni di libri piratati.
Secondo la sentenza ufficiale, Anthropic ha acquistato e scaricato milioni di libri protetti da copyright, molti dei quali da siti pirata, per la sua “biblioteca centrale”, dalla quale usa vari set e subset per addestrare i suoi grandi modelli linguistici (LLM).
Alcuni degli autori le cui opere sono state incluse – Andrea Bartz, Charles Graeber e Kirk Wallace Johnson – hanno citato in giudizio Anthropic per violazione dei diritti d’autore. Il giudice Alsup, tuttavia, ha stabilito che Anthropic ha fatto un “uso lecito” del materiale raccolto.
“I clienti di Claude volevano che Claude scrivesse in modo accurato e avvincente come gli Autori”, afferma il documento, riferendosi agli scrittori querelanti come “Autori”. “Così, era meglio addestrare i LLM che stanno alla base di Claude su opere proprio come quelle che gli Autori avevano scritto, con fatti ben curati, analisi ben organizzate e narrative di finzione avvincenti – soprattutto con una ‘buona scrittura’ del tipo ‘che un editor avrebbe approvato.'”
Il giudice ha anche notato che i libri utilizzati facevano parte solo del processo di formazione. La versione di Claude rivolta al pubblico è controllata da un software che filtra le uscite e impedisce la generazione di copie esatte o riproduzioni rilevabili dei testi originali.
“Come ogni lettore che aspira a diventare scrittore, gli LLM di Anthropic si sono allenati su opere non per superarle e replicarle o sostituirle, ma per fare una svolta netta e creare qualcosa di diverso”, ha detto Alsup.
Il giudice ha considerato l’uso del materiale da parte di Claude “quintessenzialmente trasformativo”, ma ha sollevato preoccupazioni sull’uso di copie piratate. Anthropic avrebbe scaricato oltre 7 milioni di copie di libri da biblioteche pirata. “Anthropic non aveva diritto di utilizzare copie piratate per la sua biblioteca centrale,” ha dichiarato il giudice, aggiungendo che un processo separato affronterà questa questione.
Proprio come altre aziende di intelligenza artificiale sono state coinvolte in procedimenti legali—la BBC ha recentemente minacciato Perplexity di azione legale per aver raschiato il suo contenuto—Anthropic ha già affrontato più casi legati all’uso di contenuti creati da professionisti creativi. Alcune settimane fa, un giudice federale della California ha anche deciso a favore di Anthropic in una causa di diritto d’autore sulla musica AI, e la società di intelligenza artificiale ha anche assunto la responsabilità per l’allucinazione AI in una causa di diritto d’autore.