In un contesto in cui la tecnologia avanza a passi da gigante, il dibattito sull’uso etico e legale dei contenuti protetti da diritto d’autore si fa sempre più acceso.
Recentemente, il campo dell’intelligenza artificiale è stato scosso da una disputa legale di rilievo: il caso del New York Times contro Microsoft e OpenAI, la società madre di ChatGPT, un chatbot AI che ha guadagnato fama mondiale.
Il cuore della questione è il presunto utilizzo non autorizzato di contenuti giornalistici da parte delle due aziende tecnologiche.
ChatGPT e altri modelli AI simili, come Dall-E, Midjourney e Stable Diffusion, sono stati alimentati da dati che includono contenuti giornalistici protetti da copyright, senza il consenso dei legittimi proprietari.
Il New York Times afferma che i suoi lavori protetti da copyright siano stati utilizzati per migliorare gli algoritmi di intelligenza artificiale su cui si basa la capacità di ChatGPT di generare contenuti originali e convincenti.
Questa azione legale potrebbe avere implicazioni significative, ridefinendo i confini tra innovazione tecnologica e rispetto dei diritti di proprietà intellettuale.
L’accusa chiave del NYT è che OpenAI ha riprodotto in modo sistematico ampi volumi dei suoi contenuti durante lo sviluppo dei modelli di intelligenza artificiale.
Secondo l’accusa, questo processo non solo ha comportato la copia non autorizzata, ma potenzialmente ha danneggiato il modello di business del NYT deviando lettori e entrate dal giornalismo del giornale.
Questa disputa solleva domande cruciali: fino a che punto le aziende tecnologiche possono spingersi nell’utilizzare materiali protetti per sviluppare tecnologie emergenti? E quali dovrebbero essere le norme per regolamentare tali pratiche?
Questo caso mette in luce la necessità di bilanciare l’innovazione con il rispetto dei diritti degli autori, un equilibrio delicato in un’era digitale sempre più dominata dall’intelligenza artificiale.
Mentre il processo si dipana, il settore tecnologico e quello editoriale osservano con attenzione, consapevoli che il verdetto potrebbe segnare una svolta storica.
Il risultato potrebbe non solo influenzare le future collaborazioni tra queste industrie ma anche delineare nuove regole per la gestione e l’utilizzo dei dati in un mondo sempre più guidato dall’IA.
La causa legale intentata dal New York Times potrebbe avere un impatto significativo sul futuro sviluppo dell’intelligenza artificiale, spingendo altre organizzazioni mediatiche a richiedere compensi per l’utilizzo dei loro contenuti.
Inoltre, potrebbe stabilire un importante precedente legale riguardo alla raccolta e all’uso dei dati impiegati per addestrare le intelligenze artificiali.
Questa causa solleva interrogativi sui metodi impiegati nello sviluppo dell’IA, in particolare per quanto concerne il rispetto delle leggi sul copyright e l’etica nell’utilizzo dell’IA.
Le accuse del New York Times includono violazioni sistematiche e concorrenziali, sostenendo che OpenAI abbia consapevolmente utilizzato i suoi contenuti, portando così a una diretta violazione da parte degli utenti finali dei loro modelli di intelligenza artificiale.
La causa non specifica l’entità del risarcimento chiesto dal giornale, ma dice che le aziende sarebbero responsabili di «miliardi di dollari» di danni, e chiede la distruzione dei software basati su modelli allenati con il materiale protetto da copyright.
Secondo la denuncia del New York Times, ChatGPT in alcuni casi produrrebbe testi identici quasi parola per parola ad articoli pubblicati sul suo sito e inaccessibili se non abbonandosi, a pagamento, al giornale.
Una delle preoccupazioni maggiori attorno ai software di intelligenza artificiale generativa è quella dovuta alle loro cosiddette “allucinazioni”, situazioni in cui il software sostanzialmente inserisce informazioni false nella sua risposta all’utente, talvolta anche attribuendole a una fonte come un giornale.
Il software infatti funziona grazie a un modello statistico che cerca di indovinare quali siano le parole che ha senso utilizzare in un dato contesto: questo a volte crea risposte corrette secondo le regole linguistiche, ma senza nessuna aderenza alla realtà.
Il New York Times sostiene che questo rappresenti potenzialmente un danno per la sua reputazione.
il coinvolgimento di Microsoft
Microsoft ha una relazione con OpenAI, sia come investitore che come fornitore di tecnologia, fornendo a OpenAI l’accesso alla sua tecnologia di cloud computing Azure. La causa è stata depositata presso il Tribunale Distrettuale degli Stati Uniti per il Distretto Meridionale di New York
In una dichiarazione in tribunale, l’editore ha affermato che cerca di ritenere Microsoft e OpenAI responsabili di “miliardi di dollari in danni legali ed effettivi” che ritiene siano dovuti per “copia e utilizzo illegali delle opere di valore unico del Times”.
Microsoft investe e fornisce OpenAI, fornendogli l’accesso alla tecnologia di cloud computing Azure del colosso di Redmond.
Il Times ha accusato Microsoft e OpenAI di creare un modello di business basato sulla “violazione di massa del copyright”, affermando che i loro sistemi di intelligenza artificiale “sfruttano e, in molti casi, conservano ampie porzioni dell’espressione protetta da copyright contenuta in tali opere”.
Il New York Times è rappresentato nel procedimento da Susman Godfrey, la società di contenzioso che ha rappresentato Dominion Voting Systems nella sua causa per diffamazione contro Fox News culminata in un accordo da 787,5 milioni di dollari.
Susman Godfrey rappresenta anche l’autore Julian Sancton e altri scrittori in una causa separata contro OpenAI e Microsoft che accusa le società di utilizzare materiali protetti da copyright senza autorizzazione per addestrare diverse versioni di ChatGPT.
Cosa sostiene il New York Times?
Il New York Times ha sollevato un’accusa pesante: afferma che milioni dei suoi articoli sarebbero stati utilizzati per migliorare la qualità e la competenza di queste IA, permettendo loro di emulare lo stile e la sostanza del giornalismo professionale.
Questo solleva questioni non solo legali ma anche etiche, poiché le modalità esatte con cui questi algoritmi vengono allenati rimangono spesso avvolte nel mistero. La mancanza di trasparenza sulle fonti utilizzate per l’addestramento delle IA alimenta il timore che possano essere infranti i diritti d’autore.
Il caso sollevato dal Times va oltre la semplice questione legale; tocca il cuore stesso del valore e della protezione del giornalismo. L’editore americano sostiene che l’uso non autorizzato dei suoi contenuti da parte di OpenAI e Microsoft potrebbe tradursi in una perdita significativa di entrate derivanti da abbonamenti, licenze e pubblicità.
Inoltre, c’è l’allarmante preoccupazione che i modelli linguistici possano minacciare l’integrità e la sostenibilità del giornalismo di qualità.
Nel documento della denuncia si afferma che ChatGpt avrebbe utilizzato “milioni” di articoli per rendere il chatbot in grado di competere direttamente con il contenuto dell’utente.
Questo solleva preoccupazioni in merito alla violazione del copyright, in quanto non è chiaro su quali contenuti siano stati addestrati gli algoritmi di questi sistemi.
OpenAI e i grandi modelli linguistici (LLM) di Microsoft, che alimentano ChatGPT e Copilot, sono accusati di essere in grado di riassumere fedelmente e imitare lo stile espressivo degli articoli pubblicati dall’editore Usa.
Questo potrebbe comportare perdite economiche in termini di abbonamenti, licenze, pubblicità ed entrate, e minacciare il giornalismo di qualità. La causa attira l’attenzione dell’industria dell’editoria internazionale.
Cosa afferma Microsoft e OpenAi?
Il New York Times ha dichiarato di aver tentato di raggiungere un accordo con Microsoft e OpenAI, ma senza successo. Al momento non c’è stata alcuna replica ufficiale da parte delle altre parti coinvolte.
I precedenti del NYT con OpenAi
Il New York Times, insieme ad altri organi di stampa come la BBC, CNN e Reuters, ha recentemente bloccato il web crawler di OpenAI. Questo ha impedito a OpenAI di estrarre contenuti dai rispettivi siti web per utilizzarli nell’addestramento dei modelli di intelligenza artificiale.
Cosa prevede l’AI ACT
Nel tentativo di armonizzare il progresso tecnologico con le normative sulla proprietà intellettuale, l’Unione Europea ha recentemente delineato un nuovo quadro legislativo che potrebbe rivoluzionare il modo in cui l’intelligenza artificiale si sviluppa e interagisce con i contenuti protetti da copyright.
La nuova proposta legislativa dell’UE introduce un approccio più elastico e pragmatico, potenzialmente riducendo l’onere burocratico per gli sviluppatori di IA.
Secondo la proposta, per l’addestramento di sistemi di intelligenza artificiale, potrebbe non essere più necessario fornire un elenco dettagliato di tutte le opere protette da diritto d’autore utilizzate.
Invece, sarebbe sufficiente presentare riassunti aggregati delle raccolte di dati e delle fonti. Questa modifica legislativa punta a facilitare la conformità per gli sviluppatori di IA, accelerando l’innovazione e riducendo le complessità legali.
Allo stesso tempo, la legge ribadisce l’importanza dell’aderenza ai quadri normativi esistenti, suggerendo che l’UE potrebbe stabilire nuovi standard globali per i modelli di intelligenza artificiale addestrati fuori dai suoi confini ma distribuiti all’interno del mercato comune.
Queste nuove regolamentazioni hanno il potenziale per ridefinire i confini tra la creazione di contenuti e le tecnologie AI, influenzando significativamente le industrie che si affidano a entrambi. Con questa mossa, l’UE si posiziona come un attore chiave nella definizione del futuro digitale, offrendo una visione che bilancia innovazione e rispetto dei
diritti d’autore in un panorama mediatico in rapida evoluzione.
L’atto giudiziario
Il New York Times, che ha una lunga storia di giornalismo indipendente e di alta qualità, accusa OpenAI di condotta illegale attraverso la creazione e la distribuzione di copie non autorizzate e derivati di opere protette da copyright del Times tramite i suoi prodotti, come Bing Chat e ChatGPT con il plugin Sfoglia con Bing.
Il New York Times sostiene che il suo giornalismo di qualità richiede un investimento significativo di tempo, denaro e risorse umane, e che le pratiche di OpenAI, che includono la generazione di risultati di ricerca sintetici che parafrasano o citano il contenuto del Times, distolgono traffico e potenziali entrate dal giornale.
Inoltre, il Times afferma che OpenAI, nonostante le sue origini come entità non profit con promesse di apertura e condivisione, si è trasformata in un’impresa commerciale multimiliardaria, cambiando il suo modello di business e struttura aziendale.
L’articolo cita esempi specifici di contenuti del Times che sono stati riprodotti senza autorizzazione nei risultati di ricerca sintetici di Bing Chat e Sfoglia con Bing, e sostiene che questo comportamento danneggia il Times riducendo la necessità per gli utenti di visitare il sito originale per ottenere informazioni complete, poiché i riassunti forniti dai modelli di OpenAI sono spesso sufficienti per soddisfare le loro esigenze informative.
George R. R. Martin, Jonathan Franzen e altri scrittori intentano causa contro OpenAI
Diciassette autori statunitensi appartenenti all’Authors Guild, un’organizzazione professionale per scrittori, hanno intentato una causa contro la società tecnologica OpenAI, poiché sospettano che l’azienda abbia utilizzato illegalmente i testi dei loro libri, protetti da diritto d’autore, per addestrare il software di intelligenza artificiale ChatGPT.
Tra i querelanti figurano nomi noti come George R. R. Martin, creatore dell’acclamata serie “Cronache del ghiaccio e del fuoco”, e Jonathan Franzen, uno dei narratori più influenti dell’epoca moderna.
Questi scrittori, uniti sotto la bandiera della Authors Guild, sostengono che OpenAI abbia utilizzato i loro lavori, tutelati da diritto d’autore, per ‘insegnare’ al proprio software ChatGPT a produrre testi in modo autonomo.
La tecnologia in questione si basa su modelli linguistici capaci di generare narrazioni convincenti, apprendendo da vasti volumi di letteratura esistente.
La causa è stata depositata il 19 settembre presso un tribunale di New York con l’obiettivo di ottenere un’ingiunzione che impedisca a OpenAI di continuare a utilizzare opere protette da copyright per addestrare ChatGPT.
Il software si basa su un modello statistico “addestrato” su vastissime quantità di testi scritti da esseri umani per indovinare, in molti casi correttamente, le parole da utilizzare in un determinato contesto.
Il gruppo di autori chiede anche un rimborso di 150.000 dollari per la violazione del diritto d’autore.
Questa non è la prima volta che OpenAI si trova sotto accusa per questioni simili; già in precedenza altri scrittori avevano mosso critiche analoghe.
Un portavoce di OpenAI ha riferito che l’azienda è impegnata in dialoghi costruttivi con artisti e autori per affrontare e risolvere le preoccupazioni relative all’uso dell’intelligenza artificiale nel campo creativo.
Il verdetto di questa causa potrebbe stabilire un importante precedente legale sulla proprietà intellettuale nell’era dell’intelligenza artificiale, influenzando come le opere creative vengono utilizzate per addestrare algoritmi avanzati e come gli artisti vengono compensati per il loro lavoro in un ambiente digitale in rapida evoluzione.
Una battaglia che potrebbe condure a mille armistizi
Axel Springer e OpenAI collaboreranno per esplorare l’uso vantaggioso dell’intelligenza artificiale nel giornalismo
In una mossa strategica che potrebbe prefigurare il futuro delle interazioni tra media tradizionali e tecnologia avanzata, l’editore tedesco Axel Springer ha siglato un accordo innovativo con OpenAI, la società dietro il rivoluzionario software di intelligenza artificiale ChatGPT.
Questa partnership si distingue come un esempio di come le organizzazioni editoriali possono abbracciare le opportunità offerte dall’IA mantenendo il controllo sui propri contenuti.
Mentre alcune case editrici si sono trovate in conflitto con le aziende di IA per l’uso dei loro materiali protetti, Axel Springer ha scelto un percorso diverso, entrando in una collaborazione che permetterà a ChatGPT di fornire ai suoi utenti estratti di notizie dalle sue influenti pubblicazioni, tra cui la Bild e Politico.
Questa alleanza non solo garantisce l’integrità del materiale giornalistico ma apre anche nuove vie per l’accesso ai contenuti premium.
Il modello di questa partnership è particolarmente significativo nel contesto del dibattito sul Fair Use e sull’utilizzo etico dei contenuti protetti da copyright.
Mentre alcuni vedono l’IA come una minaccia alla proprietà intellettuale, accordi come quello tra Axel Springer e OpenAI dimostrano che può esistere un equilibrio vantaggioso per entrambi.
Mathias Döpfner, CEO di Axel Springer, ha espresso entusiasmo per l’iniziativa, sottolineando il desiderio dell’editore di esplorare le potenzialità del giornalismo arricchito dall’intelligenza artificiale. Brad Lightcap di OpenAI ha ecoato questo sentimento, evidenziando l’importanza della collaborazione con gli editori per sviluppare modelli di business sostenibili nell’era dell’IA.
L’accordo rappresenta un modello potenzialmente replicabile che altri editori potrebbero seguire, cercando sinergie con le tecnologie AI piuttosto che posizioni antagoniste.
Inoltre, la partnership promette di arricchire l’esperienza utente di ChatGPT, offrendo contenuti aggiornati e autorevoli, e potrebbe segnare l’inizio di una nuova era per il giornalismo digitale e la distribuzione di notizie.
L’accordo con l’Associated Press
ChatGPT, ha annunciato una collaborazione di rilievo con l’Associated Press (AP), una delle agenzie di stampa più prestigiose al mondo.
L’accordo prevede che OpenAI acquisisca la licenza per utilizzare l’archivio di testi dell’AP, mentre l’agenzia giornalistica avrà accesso alle avanzate tecnologie e competenze produttive di OpenAI.
Questa alleanza rappresenta un passo significativo nell’esplorazione di casi d’uso dell’intelligenza artificiale generativa nei prodotti e servizi giornalistici.
OpenAI potrà attingere a una vasta gamma di contenuti informativi, arricchendo così la competenza e la profondità delle proprie offerte AI, come ChatGPT, che si avvale già di una base di conoscenza estremamente ampia.
L’AP, da parte sua, mira a sfruttare le potenzialità dell’IA per ottimizzare la produzione dei contenuti, esplorando nuove frontiere nel campo dell’automazione redazionale e della personalizzazione delle notizie.
Questa sinergia tra due entità così influenti nel loro rispettivo campo potrebbe segnare l’inizio di una nuova era per il giornalismo, dove l’intelligenza artificiale si integra con la produzione di notizie per offrire esperienze informative sempre più accurate e coinvolgenti.
La partnership tra OpenAI e AP potrebbe fungere da modello per future collaborazioni tra i colossi della tecnologia e le istituzioni giornalistiche, indicando una strada verso la coesistenza produttiva e rispettosa delle normative sul copyright.
Considerazioni conclusive
L’avanzamento dell’intelligenza artificiale generativa sta ridefinendo i contorni del diritto d’autore, portando legislatori e giuristi a confrontarsi con questioni inedite e complesse. Un recente documento redatto da Christopher T. Zirpoli per il Servizio di ricerca del Congresso degli Stati Uniti ha messo in evidenza come l’IA generativa possa impattare sulle normative vigenti in materia di copyright.
La discussione si concentra principalmente su cinque punti chiave:
- Protezione del Copyright per gli Output dell’IA: La domanda fondamentale è se i contenuti generati dall’IA possano beneficiare della protezione del diritto d’autore, una questione che solleva dubbi sulla proprietà intellettuale dei contenuti creati da algoritmi .
- Violazione del Copyright: L’uso di opere esistenti da parte dei programmi di IA generativa per produrre nuovi contenuti potrebbe configurare una violazione del copyright, specialmente quando gli output sono simili a opere preesistenti. La sfida è determinare se questa somiglianza costituisca una copia non autorizzata
- Diritti di Proprietà e Sfruttamento: Le aziende che sviluppano software di IA tentano spesso di assegnare i diritti di proprietà tramite termini di servizio e contratti, ma resta aperta la questione su come dovrebbero essere distribuiti i diritti d’autore tra le aziende e gli utenti dei loro servizi
- Responsabilità: In caso di violazione del copyright attraverso l’utilizzo di IA generativa, si pone il problema di chi debba essere ritenuto responsabile: l’utente che impiega l’intelligenza artificiale o l’azienda che ha sviluppato il software? Questo interrogativo apre la discussione su possibili violazioni dirette e indirette
- Considerazioni per il Congresso: Il documento suggerisce che il Congresso valuti l’introduzione di emendamenti al Copyright Act per affrontare le nuove sfide poste dall’IA generativa. Questo potrebbe includere la definizione della tutela delle opere generate dall’IA e la chiarificazione dei diritti d’autore nel processo di addestramento dei modelli di IA
L’evoluzione dell’IA generativa sfida il quadro normativo tradizionale, costringendo a una riflessione approfondita sui principi fondamentali del diritto d’autore.
Le risposte a queste domande non sono solo di natura legale ma anche etica e filosofica, dato che toccano il concetto stesso di creatività e autorialità nell’era digitale.
Con l’IA che sta diventando sempre più capace di creare opere complesse e convincenti, è chiaro che le attuali leggi sul copyright potrebbero non essere sufficientemente attrezzate per gestire le implicazioni di questa nuova tecnologia.
Le decisioni prese oggi avranno un impatto profondo sul futuro della proprietà intellettuale, dell’innovazione e della distribuzione dei contenuti digitali [4].
Il documento
esplora le implicazioni legali dell’intelligenza artificiale generativa (AI) in relazione alla legge sul diritto d’autore.
Il documento, aggiornato al 29 settembre 2023, affronta questioni come la paternità, la violazione e l’uso equo in relazione ai contenuti creati o utilizzati da AI.
esamina i programmi di intelligenza artificiale generativa come DALL-E di OpenAI, ChatGPT, Stability AI’s Stable Diffusion e il programma omonimo di Midjourney, che sono in grado di generare nuove immagini, testi e altri contenuti in risposta alle richieste testuali degli utenti.
Questi programmi sono addestrati esponendoli a grandi quantità di opere esistenti come scritti, foto, dipinti e altre opere d’arte.
esplora le questioni legali sollevate dai tribunali e dal Copyright Office degli Stati Uniti sulla questione se i risultati dell’intelligenza artificiale generativa possano essere protetti da copyright e su come l’intelligenza artificiale generativa potrebbe violare i diritti d’autore su altre opere.
Iaffronta anche la questione di chi, se qualcuno, può detenere il copyright sui contenuti creati utilizzando questi programmi di intelligenza artificiale generativa.
Esamina la questione se la protezione del copyright possa essere concessa o meno agli output dell’intelligenza artificiale, come le immagini create da DALL-E o i testi creati da ChatGPT.
discute anche di una causa legale recente che ha messo in discussione il requisito della paternità umana nel contesto di opere presumibilmente “create” dall’intelligenza artificiale. Inoltre, esamina la questione se il processo di formazione sull’intelligenza artificiale violi il diritto d’autore in altre opere
Un sacrificio previsto?
Gli accordi individuali tra piattaforme digitali di IA e aziende generatrici di contenuti rappresentano una soluzione agile e adattabile a questo scenario in evoluzione. Questi accordi consentono una negoziazione su misura che può tenere conto delle esigenze specifiche di entrambe le parti.
Per esempio, una piattaforma di IA potrebbe accordarsi con un editore per utilizzare i suoi dati per addestrare i suoi modelli, mentre l’editore potrebbe beneficiare dell’accesso a strumenti di IA avanzati per ottimizzare la distribuzione dei propri contenuti.
Dal punto di vista delle piattaforme digitali, questi accordi possono fornire una base legale chiara per l’utilizzo dei dati, evitando i rischi associati alla violazione del diritto d’autore.
Inoltre, la collaborazione diretta con i creatori di contenuti può portare a nuovi modelli di business e opportunità di monetizzazione per entrambe le parti.
Tuttavia, ci sono implicazioni finanziarie significative per le piattaforme digitali in questo approccio. La negoziazione e la gestione degli accordi individuali possono essere costose e richiedere un investimento significativo in termini legali e amministrativi. Inoltre, i costi possono aumentare rapidamente se una piattaforma necessita di accesso a grandi volumi di dati protetti da copyright da molteplici fornitori.
Un altro aspetto da considerare è l’equità e l’accesso al mercato. Le piattaforme più grandi e finanziariamente solide potrebbero essere in grado di stipulare accordi più vantaggiosi, mentre le startup e le piattaforme più piccole potrebbero trovarsi in una posizione svantaggiata.
In conclusione, mentre gli accordi individuali offrono flessibilità e possono essere adattati alle necessità specifiche delle piattaforme digitali e dei creatori di contenuti, essi portano anche sfide significative in termini di costi e accesso al mercato. Una possibile soluzione potrebbe essere un approccio ibrido che combini elementi di regolamentazione legislativa con la flessibilità degli accordi individuali, garantendo così un equilibrio tra protezione del diritto d’autore, innovazione tecnologica e giustizia competitiva.