Nel panorama tecnologico odierno, l’intelligenza artificiale (IA) si è fatta strada in ogni angolo del nostro vivere quotidiano, trasformando radicalmente il modo in cui interagiamo con le macchine.
Tra le più significative innovazioni vi sono i modelli linguistici come GPT-4, che hanno la capacità di comprendere e generare lingue naturali in modo sorprendentemente umano.
Questi modelli sono il risultato di un addestramento intensivo su vasti corpus di testo che abbracciano l’intero spettro della conoscenza umana. Il processo di apprendimento non è una mera memorizzazione: simile a un bambino che impara a parlare ascoltando i genitori, GPT-4 assimila strutture linguistiche, relazioni semantiche e regole sintattiche.
Tuttavia, a differenza di un bambino, ha accesso a una quantità di informazioni quasi infinita.
La creazione di contenuti da parte di questi modelli non è un plagio ma una rielaborazione originale. GPT-4, per esempio, non riproduce passaggi di testi esistenti; piuttosto, sintetizza nuove informazioni basandosi su ciò che ha ‘appreso’ durante il suo addestramento. Questo processo è paragonabile a un esperto che scrive un articolo dopo aver studiato un argomento da molteplici fonti senza copiarle direttamente.
L’uso responsabile di queste tecnologie è cruciale. Mentre offrono benefici innegabili in termini di efficienza e accessibilità alla conoscenza, sollevano anche questioni riguardanti l’autenticità e la proprietà intellettuale. Inoltre, la facilità con cui possono generare informazioni accurate o ingannevoli pone l’accento sull’importanza della verifica delle fonti e della trasparenza.
Che cosa è successo a Natale? Diritto d’Autore e Intelligenza Artificiale
Nell’ultima settimana dell’anno, tra le luci festose di Natale e i fuochi d’artificio di Capodanno, OpenAI è tornata sotto i riflettori non per le solite lodi al suo ultimo prodotto tecnologico, ma per una vicenda giudiziaria che potrebbe ridefinire i confini del diritto d’autore nell’era dell’intelligenza artificiale.
Il 27 dicembre 2023, la compagnia che gestisce il New York Times, la New York Times Company, ha intrapreso azioni legali contro le aziende associate a OpenAI e Microsoft Corporation, accusandole di infrangere i diritti d’autore.
L’azione legale è stata presentata al tribunale federale distrettuale situato a Manhattan.
Il New York Times, riconosciuto come uno dei giornali più autorevoli e diffusi negli USA, detiene il primato mondiale per il numero di sottoscrizioni alla sua edizione digitale.
I dati del 2023 indicano che oltre 10 milioni di utenti hanno sottoscritto un abbonamento ai suoi contenuti online. Il giornale si pone come traguardo il raggiungimento di almeno 15 milioni di abbonati entro la conclusione del 2027.
OpenAI è invece la società che ha sviluppato ChatGPT, il sistema di AI generativa più famoso al mondo. È ora valutata dagli investitori più di 80 miliardi di dollari. Microsoft è coinvolta in quanto ha stanziato 13 miliardi per finanziare OpenAI e ha incorporato la tecnologia dell’azienda nel suo motore di ricerca Bing.
Il fulcro della controversia è l’asserzione del New York Times (NYT) che OpenAI avrebbe impiegato milioni dei suoi articoli senza autorizzazione per perfezionare le funzionalità di ChatGPT e Windows Copilot.
Il NYT sostiene che ChatGPT, addestrato con i suoi articoli, ha generato testi sorprendentemente simili a quelli pubblicati sul suo sito e riservati agli abbonati, sottraendo così traffico al sito del giornale.
OpenAI e Microsoft hanno riconosciuto l’uso dei contenuti del NYT per sviluppare i loro sistemi di intelligenza artificiale, citando l’alta qualità e precisione del materiale fornito dal quotidiano.
Pur non specificando l’importo del risarcimento richiesto, il NYT afferma che le due aziende dovrebbero essere ritenute responsabili per “miliardi di dollari di danni legali e concreti” dovuti all’utilizzo non autorizzato delle sue opere.
Inoltre, il giornale richiede la distruzione di tutti i modelli di chatbot e dei dati soggetti a diritto d’autore utilizzati per l’addestramento dei sistemi di AI.
OpenAI è invece la conosciamo tutti, il sistema di AI generativa più famoso al mondo. È ora valutata dagli investitori più di 80 miliardi di dollari. Microsoft è coinvolta in quanto ha stanziato 13 miliardi per finanziare OpenAI e ha incorporato la tecnologia dell’azienda nel suo motore di ricerca Bing.
OpenAI, trovandosi a navigare in acque turbolente, ha optato per una strategia difensiva articolata.
Da un lato, ha promulgato dichiarazioni che riaffermano il rispetto dei diritti degli autori, dall’altro ha iniziato a cercare accordi bonari con il NYT, seguendo un percorso già battuto con successo in precedenti negoziazioni con editori come Springer e Associated Press.
L’industria dell’intelligenza artificiale si trova quindi di fronte a un bivio: continuare a sfruttare il lavoro intellettuale umano come base per l’addestramento delle macchine o rivedere l’approccio alla creazione di dati in modo etico e sostenibile.
La risposta a questi quesiti non è solo una questione legale, ma riflette una più ampia riflessione sul futuro del lavoro creativo e dell’innovazione tecnologica.
Mentre aspettiamo che la giustizia faccia il suo corso, una cosa è certa: il caso OpenAI vs. New York Times sarà un precedente fondamentale per definire il rapporto tra intelligenza artificiale e diritto d’autore nel nuovo decennio.
Il precedente
La causa da parte della Authors Guild
Il 19 settembre 2023, 17 autori appartenenti alla Authors Guild, un’organizzazione professionale per scrittori, hanno presentato una denuncia contro la società di intelligenza artificiale OpenAI. Tra gli autori coinvolti vi sono nomi celebri come George R. R. Martin, autore della serie fantasy “Cronache del ghiaccio e del fuoco”, da cui è stata tratta la serie tv “Game of Thrones”, John Grisham, noto per i suoi libri gialli a sfondo giudiziario, e Jonathan Franzen, uno dei più importanti romanzieri americani contemporane
La denuncia, depositata presso un tribunale di New York, sostiene che OpenAI abbia utilizzato illegalmente i testi di questi scrittori per addestrare i propri chatbot, violando così il copyright sulle opere.
In particolare, si sospetta che il chatbot ChatGPT di OpenAI sia stato addestrato utilizzando i testi dei loro lavori protetti da copyright.
ChatGPT ha dimostrato di essere in grado di generare interi racconti o storie anche piuttosto lunghe, al punto che diverse persone hanno cominciato a far scrivere libri a ChatGPT, rivendendoli poi su Amazon o anche attraverso canali più tradizionali.
Ad esempio, quando richiesto, ChatGPT ha generato una bozza dettagliata, non autorizzata e contraffatta per un libro prequel di “A Game of Thrones”, una delle opere di Martin, e ha intitolato il derivato contraffatto e non autorizzato “A Dawn of Direwolves”, utilizzando gli stessi personaggi del libro esistente di Martin nella serie “Le Cronache del ghiaccio e del fuoco”.
La causa vuole ottenere un’ingiunzione che impedisca a OpenAI di continuare a utilizzare lavori protetti da copyright.
La lettera di Margaret Atwood
Margaret Atwood, insieme a oltre 8.000 altri autori, ha firmato una lettera aperta in cui chiede un compenso alle aziende di intelligenza artificiale per l’uso delle loro opere per addestrare modelli di intelligenza artificiale.
Gli autori sostengono che le aziende di intelligenza artificiale stanno utilizzando le loro opere protette da copyright senza autorizzazione, definendolo “pasti infiniti per i quali non è mai arrivato il conto”.
La lettera è indirizzata ai CEO di diverse importanti aziende di intelligenza artificiale, tra cui OpenAI, Alphabet, Meta, Stability AI, IBM e Microsoft.
Gli autori sostengono che l’uso delle loro opere nei sistemi di intelligenza artificiale minaccia di danneggiare la loro professione, inondando il mercato con libri, storie e giornalismo mediocri scritti da macchine basati sul loro lavoro.
Sottolineano inoltre che gli autori hanno subito una diminuzione del 40% dei guadagni nell’ultimo decennio, con un reddito mediano per gli scrittori a tempo pieno nel 2022 di soli 23.000 dollari.
Le richieste degli autori includono l’ottenimento di autorizzazione per l’uso del loro materiale protetto da copyright, il compenso per l’uso delle loro opere e la mitigazione del danno alla loro professione causato dall’intelligenza artificiale generativa.
Argomentano che l’intelligenza artificiale non può creare storie umane senza attingere a storie umane già scritte.
La lettera fa parte di un più ampio movimento di contrasto all’uso di opere protette da copyright per addestrare modelli di intelligenza artificiale, che ha incluso cause legali e sforzi di sensibilizzazione.
Nonostante questi sforzi, al momento della lettera, le aziende di intelligenza artificiale non avevano ancora risposto alle richieste degli autori.
Nel luglio del 2023, la comica Sarah Silverman e lo scrittore Paul Tremblay hanno presentato denunce analoghe.
Queste azioni legali si aggiungono a una serie di altre, sia individuali che collettive, mosse da numerosi artisti nel corso dell’anno contro le intelligenze artificiali che creano immagini.
Questi modelli di AI, che includono DreamUp, Midjourney, Stable Diffusion di Stability AI e DeviantArt, sono stati addestrati utilizzando opere d’arte disponibili online.
Lo sciopero della Writers Guild of America (WGA)
L’associazione degli sceneggiatori americani, la Writers Guild of America (WGA), ha avviato uno sciopero nel maggio 2023 che è durato 148 giorni. Le richieste avanzate dalla WGA erano principalmente tre:
- Un aumento dei finanziamenti e della sicurezza del lavoro degli sceneggiatori.
- Un ampliamento delle dimensioni delle Writers’ Rooms.
- La limitazione dell’uso dell’intelligenza artificiale all’interno del processo di scrittura[4].
Queste richieste sono state avanzate all’AMPTP (Alliance of Motion Picture and Television Producers), l’associazione dei produttori cinematografici e televisivi.
Le proteste erano iniziate dopo che gli scrittori di Hollywood non erano riusciti a raggiungere un accordo con l’AMPTP in merito ad una più equa retribuzione e alla regolamentazione dell’uso dell’intelligenza artificiale nella creazione di nuovi titoli[2].
Lo sciopero è terminato il 27 settembre 2023, quando la WGA ha annunciato ufficialmente la fine dello sciopero degli sceneggiatori dopo quasi 150 giorni, poiché è stato raggiunto un nuovo accordo provvisorio con gli studi dell’AMPTP.
Gli sceneggiatori hanno ottenuto una regolamentazione sull’uso dell’IA nel lavoro di scrittura, un secondo “step” (bozza, o punto di pagamento) per gli sceneggiatori e una nuova formula per i diritti residuali dall’estero[5].
La prima volta
Il Times è la prima grande organizzazione mediatica americana a citare in giudizio le società a cui fanno capo i sistemi di AI su questioni di copyright associate alle sue opere scritte.
Non tutti gli editori hanno infatti deciso di opporsi all’uso dei propri testi da parte delle società sviluppatrici di sistemi di AI.
Axel Springer, l’editore tedesco noto per la pubblicazione di testate giornalistiche come Bild, Welt, Politico e Business Insider, ha annunciato il 13 dicembre 2023 una partnership globale con OpenAI.
Questa collaborazione mira a rafforzare il giornalismo indipendente nell’era dell’intelligenza artificiale (AI) e a migliorare l’uso benefico dell’AI nel giornalismo.
La partnership prevede che i contenuti di qualità dei marchi mediatici di Axel Springer, inclusi quelli a pagamento, vengano utilizzati per arricchire l’esperienza degli utenti con ChatGPT, fornendo loro sommari di notizie globali selezionate. Gli utenti di ChatGPT riceveranno quindi riassunti di contenuti giornalistici globali selezionati, che includeranno attribuzione e collegamenti agli articoli completi.
Inoltre, l’accordo supporta le iniziative esistenti di Axel Springer basate sull’AI di OpenAI e coinvolge l’uso di contenuti di qualità dei marchi mediatici di Axel Springer per ChatGPT.
Il CEO di Axel Springer, Mathias Döpfner, ha espresso entusiasmo per l’opportunità di esplorare il giornalismo potenziato dall’AI per migliorare la qualità, la rilevanza sociale e il modello di business del giornalismo.
Questa partnership rappresenta la seconda collaborazione tra OpenAI e un importante editore di notizie, dopo un accordo simile stipulato con l’Associated Press a luglio. L’integrazione dei contenuti di Axel Springer su ChatGPT inizierà nel primo trimestre del 2024, e i termini finanziari dell’accordo non sono stati resi pubblici.
La legge sul copyright negli Stati Uniti
La legge sul copyright negli Stati Uniti è contenuta nel Titolo 17 del Codice degli Stati Uniti, che include il Copyright Act del 1976 e tutte le successive modifiche.
Lo scopo di questa legge è promuovere l’arte e la cultura fornendo agli autori diritti esclusivi sulle loro opere per un periodo di tempo limitato.
La legge copre diversi aspetti del copyright, tra cui:
Oggetto e Ambito del Copyright: Questo definisce cosa può essere protetto da copyright. Generalmente include opere letterarie, drammatiche, musicali e artistiche.
Proprietà e Trasferimento del Copyright: Questa sezione dettaglia chi possiede il copyright (di solito l’autore dell’opera) e come la proprietà può essere trasferita.
Durata del Copyright: Questo specifica quanto dura il copyright. La durata può variare a seconda del tipo di opera e del momento in cui è stata creata o pubblicata.
Avviso di Copyright, Deposito e Registrazione: Questa sezione delinea i requisiti per l’avviso di copyright, il deposito delle copie delle opere presso l’Ufficio del Copyright e la registrazione del copyright.
Violazione del Copyright e Rimedi: Questa parte della legge descrive cosa costituisce una violazione del copyright e i rimedi legali disponibili per i proprietari del copyright.
La legge include anche una dottrina nota come “fair use”, che consente un uso limitato del materiale protetto da copyright senza il permesso del proprietario del copyright in determinate circostanze, come per commenti, critiche, reportage giornalistico e relazioni accademiche.
Tuttavia, se un uso particolare qualifica come fair use dipende dalle circostanze e viene infine determinato da un tribunale.
È importante notare che la violazione del copyright può comportare sanzioni sia civili che penali, tra cui multe e imprigionamento.
Nei casi di violazione intenzionale a scopo di lucro, il Procuratore degli Stati Uniti può avviare un’indagine penale
Il Futuro del Diritto d’Autore nell’Era dell’Intelligenza Artificiale
In un’epoca caratterizzata da rapidi sviluppi tecnologici, il recente contenzioso legale tra il New York Times e OpenAI pone interrogativi fondamentali sul futuro dei diritti d’autore nell’era delle intelligenze artificiali generative.
Questo caso non è solo un confronto in aula, ma un simbolo di una sfida molto più ampia che riguarda il rapporto tra creatività umana e algoritmica.
Da una parte, abbiamo il New York Times, baluardo del giornalismo tradizionale, che difende la proprietà intellettuale dei suoi autori. Dall’altra, OpenAI, pioniere dell’IA, che potrebbe aver utilizzato milioni di articoli per addestrare i suoi modelli di linguaggio avanzati. La questione sollevata è complessa e si articola su tre livelli: legale, tecnologico e psicologico.
La contesa
La questione centrale qui è la tensione tra le leggi del diritto d’autore esistenti e le nuove tecnologie, come quelle impiegate da ChatGPT e altri modelli di linguaggio di grandi dimensioni (LLM).
Queste tecnologie hanno la capacità di “trasformare” l’informazione in termini di parametri—ovvero relazioni e modelli linguistici—e poi di “generare” nuovi contenuti che non sono copie dirette di opere preesistenti.
La sfida per il diritto d’autore è determinare se questa trasformazione e generazione costituiscano un uso legittimo del materiale protetto.
Se i modelli di linguaggio creano qualcosa di sostanzialmente nuovo e originale, piuttosto che riprodurre il lavoro protetto da copyright, potrebbero essere considerati un uso equo (“fair use”) sotto la legge statunitense.
Il caso ipotetico citato, “New York Times versus Microsoft et al”, sembra affrontare proprio questa questione.
Se i giudici decidono basandosi su interpretazioni strette e letterali delle leggi attuali, senza considerare la natura trasformativa e generativa dei LLM, il New York Times potrebbe avere difficoltà a sostenere che c’è stata una violazione del copyright. In altre parole, se l’intelligenza artificiale crea qualcosa di nuovo, piuttosto che copiare o danneggiare il mercato dell’opera originale, potrebbe essere protetta dalla dottrina del fair use.
Tuttavia, è importante notare che le decisioni giudiziarie possono anche essere influenzate da considerazioni che vanno oltre i fatti puri, come l’impatto sociale delle tecnologie o le implicazioni politiche.
Ciò significa che il risultato di tali casi può talvolta sembrare in contrasto con la direzione in cui si sta muovendo la società o con l’evoluzione tecnologica.
La contesa si radica nella questione se l’addestramento di un modello di IA con dati protetti da copyright, come gli articoli di un giornale, costituisca una forma di utilizzo non autorizzato.
Il cuore del dibattito giuridico riguarda la natura stessa della “creazione” operata dall’intelligenza artificiale.
Se un software genera testi che riflettono lo stile e il contenuto di opere protette senza esplicito permesso, siamo di fronte a una violazione dei diritti d’autore o a una nuova forma di espressione libera?
Questo caso potrebbe portare a stabilire nuovi precedenti in materia di diritto d’autore, influenzando non solo il modo in cui le IA vengono addestrate, ma anche come i loro output vengono utilizzati e distribuiti.
Gli esperti legali stanno esaminando con attenzione le implicazioni di questa causa, che potrebbe ridefinire i confini tra ispirazione e imitazione, tra apprendimento automatico e riproduzione creativa.
Inoltre, il processo potrebbe illuminare le zone d’ombra esistenti nella legislazione attuale, che non ha tenuto il passo con l’avanzamento tecnologico.
Le corti dovranno considerare se le leggi attuali sono adeguate o se necessitano di essere aggiornate per riflettere la realtà di un mondo in cui l’intelligenza artificiale gioca un ruolo sempre più centrale.
In sostanza, il diritto d’autore deve adattarsi a un mondo in cui l’informazione non è più statica ma dinamica e generativa. Le decisioni prese nelle aule di tribunale nei prossimi anni potrebbero essere cruciali per definire il confine tra apprendimento e creazione sia umani che artificiali.
Il risultato di questa battaglia legale avrà conseguenze che vanno ben oltre il caso specifico, influenzando l’industria dell’editoria, il settore tecnologico e la comunità creativa nel suo insieme.
Mentre attendiamo le decisioni della corte, una cosa è certa: siamo all’alba di un nuovo capitolo nel rapporto tra diritto d’autore e intelligenza artificiale, un capitolo che sarà scritto nelle aule di tribunale.
La questione fondamentale qui è se un’intelligenza artificiale, come un modello di linguaggio di grandi dimensioni (LLM), possa “imparare” da testi protetti da copyright per creare nuovi contenuti senza violare il diritto d’autore.
La legge attuale permette agli individui di imparare e trarre ispirazione da opere protette, ma non stabilisce chiaramente se e come questa libertà si applichi alle macchine.
Il Caso dei Grandi Dataset
L’addestramento dei modelli di intelligenza artificiale, come dimostra il caso di ChatGPT, si basa sull’analisi di quantità colossali di dati. Questi dataset non sono semplici raccolte di informazioni; sono il fondamento su cui l’IA costruisce la sua capacità di comprendere e interagire in linguaggio naturale. La domanda che ora si impone è: da dove provengono questi dati? E più importante ancora, la loro raccolta e utilizzo sono eticamente sostenibili?
Il dibattito è acceso. Da un lato, c’è l’indiscutibile beneficio che queste tecnologie portano in termini di innovazione e progresso.
Dall’altro, si levano voci critiche riguardo la trasparenza e il consenso nella raccolta dei dati, con particolare attenzione alla privacy degli utenti e al rispetto della proprietà intellettuale.
ChatGPT e la Sfida Psicologica alla Creatività Umana
Sul piano psicologico, gli autori e i creatori si trovano di fronte a una realtà inquietante: l’IA è ora in grado di replicare stili e contenuti con una precisione talvolta disarmante.
Questa capacità di emulazione solleva interrogativi sulla unicità e il valore dell’espressione creativa umana. Come può un autore sentirsi sicuro del proprio lavoro quando una macchina può produrre qualcosa di simile in una frazione del tempo?
Il diritto d’autore si basa sull’idea che gli autori dovrebbero avere il diritto esclusivo di sfruttare le loro creazioni originali, incentivando così la creatività e la produzione di nuove opere.
La sfida presentata dalle IA, in particolare dai modelli di linguaggio come gli LLM, è che possono generare contenuti che sembrano creativi e nuovi, ma sono il risultato di un’elaborazione algoritmica basata su vasti insiemi di dati esistenti.
Se accettiamo che le IA possano essere creative, ciò potrebbe minare la base stessa del diritto d’autore, che attribuisce valore e protezione all’atto umano di creazione.
Se, invece, vediamo l’IA solo come uno strumento avanzato utilizzato dagli umani, allora il diritto d’autore può ancora applicarsi agli output generati dall’IA, poiché questi ultimi sarebbero considerati un’estensione del processo creativo umano.
Il diritto d’autore deve bilanciare la protezione della creatività umana con l’accettazione e l’integrazione delle capacità generative delle IA. Questo equilibrio è cruciale per il progresso tecnologico e culturale.
il concetto di Fair Use
Il concetto di “fair use” è una dottrina del diritto statunitense che permette l’uso limitato di materiale protetto da copyright senza dover prima acquisire il permesso dal titolare del copyright.
Questa dottrina è intesa come una limitazione al copyright per bilanciare gli interessi del titolare del copyright con quelli del pubblico.
Il “fair use”, o “uso equo”, è un principio del diritto d’autore che permette di utilizzare materiale protetto senza dover chiedere il permesso, ma solo in alcune circostanze specifiche e sotto certe condizioni.
È come una sorta di “zona franca” nella legge che consente alle persone di attingere a opere esistenti per creare qualcosa di nuovo o per fare critica, commento, insegnamento, e così via.
Per capire se qualcosa rientra nell’uso equo, si fa un test di bilanciamento, che pesa diversi fattori per decidere se l’uso è giusto o se va oltre i limiti. Questo test non è fisso; è piuttosto flessibile e si adatta a situazioni diverse.
Ad esempio, si guarda a quanto e quale parte dell’opera originale viene usata, se l’uso ha scopi commerciali o educativi, e se l’uso nuovo danneggia il mercato dell’opera originale.
Ecco alcuni esempi di fair use:
Citazioni in libri, notizie e blog: Quotare una piccola porzione di un’opera protetta da copyright in un libro, un reportage o un blog allo scopo di commento o critica è generalmente considerato uso lecito
Mash-up e remix: Creare una nuova opera che incorpora elementi di opere protette da copyright esistenti, come un mash-up o remix, può essere considerato uso lecito, specialmente se la nuova opera è trasformativa o fornisce un commento sulle opere originali.
Parodia: La parodia, che coinvolge l’uso di elementi di un’opera protetta da copyright per prendere in giro o commentare su quella stessa opera, è spesso considerata uso lecito.
Ad esempio, programmi televisivi come South Park o Saturday Night Live spesso utilizzano la parodia in questo modo.
Video o clip audio in documentari: Utilizzare brevi clip di video o audio protetti da copyright in un documentario allo scopo di critica, commento o per fornire contesto storico può essere considerato uso lecito
Usi educativi: Utilizzare materiali protetti da copyright per fini didattici può spesso essere considerato un uso trasformativo e quindi lecito. Ad esempio, un insegnante o uno studente potrebbero copiare alcuni paragrafi da un articolo di giornale per utilizzarli in una lezione[7].
Ricerca: Utilizzare materiale protetto da copyright per scopi di ricerca può anche rientrare nell’ambito dell’uso lecito. Ad esempio, un ricercatore potrebbe citare da un articolo medico sul cancro alla prostata in un paper di ricerca.
È importante notare che questi sono esempi generali e che se un uso specifico può essere considerato come uso lecito dipende dalle circostanze specifiche e dai quattro fattori dell’uso lecito: lo scopo e la natura dell’uso, la natura dell’opera protetta da copyright, la quantità e la sostanzialità della parte utilizzata e l’effetto dell’uso sul mercato potenziale o sul valore dell’opera protetta da copyright.
L’uso lecito è determinato caso per caso e non ci sono regole fisse.
Ecco i punti fondamentali:
Trasformazione: L’opera protetta dovrebbe essere utilizzata in modo tale da creare qualcosa di nuovo o di diverso da quello originale. Ciò potrebbe includere recensioni, parodie, o ricerche accademiche che aggiungono un nuovo significato o messaggio all’opera originale.
Esempi pratici: Un esempio classico di “fair use” è la recensione di un film, dove vengono mostrati brevi spezzoni per commentare o criticare l’opera.
Google Books mostra intere pagine di libri, ma in un contesto che permette alle persone di cercare e localizzare libri, non di leggerli interamente online, il che è stato giudicato un uso equo.
Generatività: Nel caso di tecnologie come ChatGPT, il software non riproduce testi esatti da opere protette, ma genera nuovi contenuti basandosi su modelli appresi durante la sua formazione.
Questo può essere visto come un processo creativo che produce qualcosa di originale e non una semplice copia.
Il “fair use” non è una regola rigida, ma piuttosto una valutazione caso per caso che considera tutti questi fattori insieme.
È una parte importante della legge sul diritto d’autore perché permette la libertà di espressione e incoraggia la creazione di nuove opere e idee basate su quelle esistenti.
Quando parliamo di ChatGPT e di come “apprende” da testi esistenti, è importante capire che non sta memorizzando e riproducendo direttamente questi testi. Invece, trasforma ciò che legge in una serie di relazioni e modelli statistici.
Questo processo è simile a un allievo che studia molte opere e poi scrive qualcosa di nuovo basato su ciò che ha appreso, piuttosto che copiare pezzi di testo da quelle opere.
La “trasformazione” è un concetto chiave nel diritto d’autore.
Per essere considerato “fair use”, un’opera derivata non deve essere una copia diretta, ma piuttosto qualcosa di nuovo che è stato creato attraverso la trasformazione dell’originale.
Questo processo creativo è al centro della difesa del “fair use”.
La capacità di ChatGPT di generare testi originali potrebbe quindi essere vista come un processo creativo piuttosto che una riproduzione diretta del materiale protetto da copyright, il che potrebbe essere un punto a favore nell’argomentazione del “fair use”.
Tuttavia, la questione non è ancora del tutto risolta nel diritto e potrebbe richiedere ulteriori chiarimenti giuridici.
Il fronte Italiano
Nel panorama legislativo italiano si apre un nuovo capitolo con la proposta di Legge sulla Trasparenza dei Contenuti Generati da Intelligenza Artificiale. Presentata in Parlamento, questa iniziativa legislativa mira a stabilire un confine chiaro tra i contenuti creati dall’uomo e quelli prodotti dalle macchine, una distinzione sempre più sfumata nell’era dei deepfake e dell’automazione avanzata.
La proposta punta a garantire trasparenza e sicurezza, permettendo agli utenti di riconoscere con facilità la natura dei contenuti che fruiscono quotidianamente.
Il senatore Antonio Nicita ha sottolineato l’importanza di un sistema di identificazione per tutti i contenuti generati da IA, proponendo un quadro normativo che possa regolamentare efficacemente questa nuova realtà. Ciò potrebbe includere l’obbligo per le piattaforme digitali di informare gli utenti sull’uso di algoritmi IA nella generazione e raccomandazione di contenuti.
La proposta definisce i “contenuti generati da intelligenza artificiale” come tutti quei materiali editoriali, inclusi testi, video, immagini e voci, creati o manipolati da tecnologie IA.
Questa proposta di Legge rappresenta un passo significativo verso l’adeguamento del diritto d’autore alle sfide poste dall’intelligenza artificiale. La sua adozione potrebbe non solo proteggere gli utenti ma anche guidare lo sviluppo tecnologico del paese in maniera responsabile e consapevole.
il Senato italiano esamina la trasparenza dell’IA
Il disegno di legge n. 917, presentato da Antonio Nicita, è stato annunciato nella seduta n. 116 del 24 ottobre 2023 e assegnato per l’esame il 20 novembre 2023.
Il disegno di legge è intitolato “Misure sulla trasparenza dei contenuti generati da intelligenza artificiale”.
Il disegno di legge prevede che i soggetti responsabili della pubblicazione e della diffusione dei contenuti generati da intelligenza artificiale siano obbligati ad assicurarne un’immediata riconoscibilità dagli utenti.
Questo significa che i contenuti generati da AI dovrebbero essere facilmente identificabili come tali dagli utenti.
Questo disegno di legge si inserisce in un contesto più ampio di regolamentazione dell’intelligenza artificiale e del digitale, in attesa dell’approvazione dell’AI Act da parte del Parlamento e del Consiglio europeo.
La proposta legislativa, comunicata alla Presidenza il 19 ottobre 2023, richiede che tutti i contenuti generati da IA siano immediatamente riconoscibili dagli utenti, potenzialmente attraverso un’etichettatura distintiva come “AI Made” o “prodotto da intelligenza artificiale”.
L’Autorità per le garanzie nelle comunicazioni (AGCOM) avrà il compito di stabilire le modalità specifiche per l’etichettatura attraverso un regolamento da pubblicarsi entro 60 giorni dall’entrata in vigore della Legge.
La proposta si articola in tre Articoli fondamentali.
La proposta di Legge sulla trasparenza dei contenuti generati dall’intelligenza artificiale ha diversi obiettivi principali, tra cui:
1. Garantire la trasparenza: La Legge mira a garantire che i sistemi basati sull’IA siano trasparenti, consentendo agli utenti di essere consapevoli dell’origine e dell’elaborazione dei contenuti generati. Ciò permetterà loro di valutare meglio l’affidabilità e la veridicità delle informazioni ricevute .
2. Proteggere i diritti d’autore: L’etichettatura dei contenuti generati dall’IA contribuirà a proteggere i diritti d’autore dei contenuti originali, prevenendo potenziali violazioni da parte di algoritmi che potrebbero generarne di simili o duplicati .
3. Garantire la verificabilità e riproducibilità: La Legge stabilisce che i risultati prodotti dall’IA devono essere verificabili e riproducibili, e i sistemi devono fornire spiegazioni coerenti riguardo alle decisioni prese o agli output generati .
4. Proteggere la privacy e prevenire la discriminazione: La Legge impone che venga rispettata la privacy e la sicurezza dei dati utilizzati per addestrare gli algoritmi di intelligenza artificiale, e che vengano adottate misure per prevenire la discriminazione o il pregiudizio derivati da tale utilizzo . Inoltre, la Legge mira a promuovere la responsabilità da parte dei creatori di contenuti e dei soggetti responsabili della loro diffusione, incoraggiando un equilibrio tra l’innovazione tecnologica e la tutela dei diritti dei consumatori e degli autori.
i tre articoli
Il primo definisce il concetto di “contenuto generato da IA” includendo testi, video, immagini e voci creati o sintetizzati, in tutto o in parte, da sistemi di IA come algoritmi di apprendimento automatizzato e reti neurali artificiali.
Il secondo Articolo impone chiarezza e responsabilità nella pubblicazione e diffusione di tali contenuti, richiedendo etichette e avvisi visibili che ne indichino la natura IA sia all’inizio che alla fine del contenuto.
L’Articolo 3 affronta il monitoraggio e le sanzioni, attribuendo all’AGCOM il compito di sorvegliare l’applicazione della Legge e definire un regime sanzionatorio proporzionato alla gravità delle violazioni.
Questa proposta rappresenta un tentativo importante di adattare il quadro normativo italiano alle sfide poste dall’avvento delle tecnologie generative.
Se approvata, la Legge potrebbe diventare un modello per altri paesi che cercano di bilanciare innovazione tecnologica e protezione dei consumatori. Con l’attenzione sempre crescente sui deepfake e sulle implicazioni etiche dell’IA, la trasparenza diventa un principio chiave per preservare la fiducia nell’ecosistema digitale.
La mossa del Senato italiano segna un momento significativo nella storia legislativa del paese, mostrando una volontà di guidare con consapevolezza l’integrazione dell’intelligenza artificiale nella società. Il dibattito che ne seguirà sarà cruciale non solo per il futuro del diritto d’autore ma anche per il modo in cui percepiamo e interagiamo con la tecnologia nel nostro quotidiano.
Una nuova frontiera legislativa
I promotori della legge sostengono che, nell’era dell’IA generativa, è fondamentale che i contenuti siano correttamente etichettati, permettendo ai consumatori di distinguere tra quelli prodotti da esseri umani e quelli generati da macchine. Questo non è solo cruciale per prevenire la manipolazione delle informazioni, ma anche per salvaguardare i diritti d’autore, evitando che gli algoritmi creino contenuti che possano essere confusi con quelli originali.
L’etichettatura proposta, che potrebbe assumere la forma di una “label” o di un “watermark”, è intesa a fornire agli utenti una maggiore consapevolezza riguardo alla provenienza dei contenuti e alla metodologia impiegata nella loro creazione.
Questo passaggio è vitale per valutare l’affidabilità e l’autenticità delle informazioni ricevute e per proteggere i diritti degli autori originali.
Il senatore Nicita enfatizza l’importanza della trasparenza e del riconoscimento immediato dell’origine non umana dei contenuti generati dall’IA.
La legge proposta richiede che i risultati prodotti dall’intelligenza artificiale siano non solo verificabili e riproducibili, ma anche comprensibili, in modo che le decisioni o gli output generati siano spiegabili e valutabili nel loro processo decisionale.
La difesa di AI
OpenAI ha ammesso l’importanza cruciale del materiale protetto da diritto d’autore nell’addestramento dei modelli di intelligenza artificiale. Senza l’accesso a queste informazioni, che spaziano dai libri alle fotografie, la formazione di modelli IA avanzati non sarebbe fattibile.
OpenAI ha sottolineato la necessità di enormi quantità di dati per sviluppare sistemi IA capaci di apprendere schemi complessi. Tali dati includono post di blog, fotografie, post di forum, frammenti di codice software e documenti governativi.
“Poiché oggi il diritto d’autore copre praticamente ogni tipo di espressione umana – inclusi post di blog, fotografie, post di forum, frammenti di codice software e documenti governativi – sarebbe impossibile addestrare i principali modelli di Intelligenza Artificiale odierni senza utilizzare materiali protetti dal diritto d’autore“, ha scritto OpenAI in un documento inviato alla commissione Comunicazione e Digitale della Camera dei Lord del Regno Unito.
L’azienda utilizza una combinazione di dati pubblici, licenze da terze parti e informazioni fornite dagli utenti per addestrare i suoi modelli.
OpenAI difende le sue pratiche come “fair use”, sostenendo che l’addestramento dei modelli IA con materiale pubblicamente accessibile su Internet rientra in questo principio, il quale non richiede l’autorizzazione esplicita del titolare dei diritti per determinati usi.
Questa posizione è vista come fondamentale per la competitività e l’innovazione negli Stati Uniti.
Forse è giunto il momento di considerare nuove forme di licenze che permettano l’utilizzo di contenuti protetti in maniera etica e sostenibile per l’addestramento dell’IA, senza ledere i diritti degli autori.
Solo così potremo garantire che l’avanzamento dell’IA non sia a scapito della creatività umana, ma piuttosto un’estensione della nostra capacità di esplorare e creare.
In conclusione, la strada verso un’integrazione armoniosa tra diritto d’autore e IA è complessa e iridata di sfumature legali ed etiche.
Sarà necessario un dialogo continuo tra tutte le parti interessate per navigare queste acque inesplorate e assicurare che il futuro dell’innovazione sia accessibile, equo e rispettoso della legge e dell’ingegno umano.
L’Ordinanza del Giudice William H. Orrick – la prima decisione
Il giudice federale William H. Orrick della Corte distrettuale della California del Nord ha emesso un’ordinanza in risposta all’istanza di rigetto depositata da Stability AI. La causa è stata intentata dagli artisti Sarah Andersen, Kelly McKernan e Karla Ortiz per presunta violazione del copyright, violazione del diritto all’immagine, concorrenza sleale e violazione contrattuale.
La controversia riguarda l’uso delle opere d’arte degli artisti per “addestrare” il software di intelligenza artificiale di Stability AI, che è in grado di produrre opere simili a quelle degli artisti. Gli artisti sostengono che Stability AI ha sfruttato la loro arte e creatività per il proprio business.
Tuttavia, il giudice Orrick ha respinto le accuse di violazione del copyright avanzate da McKernan e Ortiz, in quanto non avevano identificato quali delle loro opere specifiche registrate presso lo U.S. Copyright Office erano state utilizzate come immagini per l’addestramento. Inoltre, l’asserita violazione si basava sul mero risultato di una ricerca del loro nome.
Per quanto riguarda le accuse di violazione del diritto all’immagine, concorrenza sleale e violazione contrattuale, i dettagli specifici non sono stati forniti nei risultati della ricerca. Tuttavia, in generale, la violazione del diritto all’immagine può riguardare l’uso non autorizzato dell’immagine di una persona a fini commerciali[6], mentre la concorrenza sleale può riguardare atti che danneggiano ingiustamente la concorrenza commerciale[3]. La violazione contrattuale, d’altra parte, si riferisce alla mancata esecuzione di un obbligo contrattuale.
La decisione del giudice Orrick rappresenta un importante precedente nel campo del diritto d’autore e dell’intelligenza artificiale, poiché affronta la questione se un’IA che è stata “addestrata” su opere d’arte possa essere considerata come violazione del copyright[4].
“I querelanti sono stati autorizzati a emendare per chiarire la loro teoria e aggiungere fatti plausibili riguardo alle ‘copie compresse’ in Stable Diffusion e a come tali copie siano presenti (in modo che violino i diritti protetti dal Copyright Act) nei prodotti DreamStudio, DreamUp e Midjourney offerti a terzi”, ha scritto Orrick. “La stessa chiarezza e accuse plausibili devono essere offerte per poter ritenere potenzialmente Stability responsabile per l’uso del suo prodotto, DreamStudio, da parte di terzi.”
Conclusioni
In conclusione, la vicenda giudiziaria che coinvolge OpenAI e il New York Times solleva questioni fondamentali riguardo al futuro del diritto d’autore nell’era dell’intelligenza artificiale. La capacità dei sistemi come GPT-4 di generare contenuti che si avvicinano alla profondità e alla complessità umana pone nuove sfide legali e morali. Mentre il valore dell’innovazione tecnologica è indiscutibile, la necessità di salvaguardare la proprietà intellettuale e promuovere un uso etico delle tecnologie diventa sempre più evidente.
L’industria dell’IA, rappresentata da giganti come OpenAI e Microsoft, deve navigare con cautela tra le acque agitate della legislazione in continua evoluzione, cercando un equilibrio tra progresso e protezione dei diritti.
La strada verso una convivenza armoniosa tra IA e diritto d’autore è ancora in costruzione, e richiederà un dialogo costruttivo tra tecnologi, legislatori, autori e società civile. Solo così potremo garantire che l’innovazione non solo avanzi, ma lo faccia in modo sostenibile e rispettoso del lavoro intellettuale che ha contribuito a costruire la base di conoscenza su cui l’intelligenza artificiale stessa si è sviluppata.