L’Etica dell’Intelligenza Artificiale Generativa: Una Valutazione Critica
Mentre il sipario cala sul primo anno dell’era dell’intelligenza artificiale (IA) generativa, ci troviamo di fronte a un panorama che si estende ben oltre la tecnologia e l’innovazione, toccando questioni etiche e legali profondamente radicate nella nostra società.
Queste IA, capaci di produrre testi, immagini e persino codici con una facilità che rasenta l’arte del mago, hanno sollevato interrogativi fondamentali sulla proprietà intellettuale e il consenso.
I modelli generativi, allenati su vasti dataset composti da opere e dati umani – spesso acquisiti dal web senza il chiaro consenso degli autori originali – si trovano al centro di un dibattito acceso.
La loro capacità di apprendere da questi materiali e di creare opere derivate pone una domanda cruciale: si tratta di un’innovazione lecita o di un’appropriazione indebita?
Il dibattito non è soltanto accademico. Esso ha implicazioni reali per creatori di contenuti, artisti, scrittori, e per chiunque il cui lavoro contribuisca al vasto mare di dati da cui l’IA attinge.
Da un lato, l’accessibilità e l’efficienza delle IA generative promettono di democratizzare la creazione, offrendo strumenti potenti a chiunque abbia una connessione internet. Dall’altro, emerge la paura che il valore dell’originale possa essere diluito o che i creatori possano essere privati della giusta remunerazione per il loro lavoro.
La questione è complessa. Non esiste ancora un quadro legislativo internazionale chiaro che regoli le modalità di utilizzo dei dati per l’addestramento delle IA.
Le leggi sulla proprietà intellettuale sono state concepite in un’epoca in cui l’IA non era nemmeno immaginabile come forza creativa. Di conseguenza, siamo in una terra di nessuno legale, dove i confini tra ispirazione e plagio diventano sempre più sfumati.
Alcuni sostengono che l’atto di addestrare un modello di IA con opere protette da copyright senza permesso sia in sé un atto di violazione dei diritti d’autore.
Altri argomentano che, se l’output generato è sufficientemente trasformativo e originale, potrebbe non costituire una violazione. Tuttavia, la questione del consenso rimane aperta.
Non meno importante è il dibattito sull’impatto sociale ed economico di queste tecnologie. L’automazione ha sempre avuto il potenziale sia di creare che di distruggere posti di lavoro. In questo nuovo contesto, si potrebbe assistere a una trasformazione radicale nel modo in cui concepiamo il lavoro creativo e intellettuale.
Mentre gli esperti legali, i creatori e gli sviluppatori di IA lavorano per navigare in queste acque inesplorate, una cosa è certa: il dialogo deve continuare.
È essenziale che le parti interessate collaborino per sviluppare norme e regolamenti che rispettino i diritti dei creatori originali pur promuovendo l’innovazione e l’accesso alla conoscenza.
Svolta Legale nell’Era dell’IA Generativa: Riflessioni sul Caso degli Artisti Umani contro i Giganti Tech
Il mondo dell’intelligenza artificiale (IA) generativa è stato scosso di recente da un significativo sviluppo giuridico.
Al centro della tempesta legale troviamo artisti umani che hanno deciso di intraprendere azioni legali contro alcune delle aziende più influenti nel campo della generazione di immagini e video basati sull’IA, tra cui i noti Midjourney, DeviantArt, Runway e Stability AI.
Quest’ultima, in particolare, è nota per aver sviluppato Stable Diffusion, un modello che sta alla base di molte applicazioni attualmente disponibili per la generazione di arte tramite IA.
Queste cause legali aprono un nuovo capitolo nel dibattito sull’etica e sulla legittimità dell’uso di opere create da artisti umani per addestrare modelli di IA senza il loro esplicito consenso.
Le implicazioni di questi procedimenti giudiziari sono enormi, poiché potrebbero stabilire precedenti legali che influenzeranno il futuro della proprietà intellettuale nell’era digitale.
Il cuore della questione riguarda il diritto degli artisti di controllare l’utilizzo delle loro opere originali.
Mentre le piattaforme di IA sostengono che l’uso di tali opere per addestrare modelli algoritmici rientra nell’uso equo, gli artisti contrattaccano sostenendo che tale pratica viola i loro diritti e deprezza il valore del loro lavoro creativo.
L’esito di queste cause legali è atteso con ansia sia dalla comunità artistica che da quella tecnologica.
Da un lato, un verdetto a favore degli artisti potrebbe imporre nuovi limiti e responsabilità alle aziende che sviluppano tecnologie generative, costringendole a ricercare consensi espliciti o a sviluppare metodi alternativi per l’addestramento dei loro modelli.
Dall’altro, una decisione che legittimi le pratiche attuali potrebbe accelerare ulteriormente l’innovazione in questo settore, ma a rischio di alienare ulteriormente i creatori originali.
In entrambi i casi, il verdetto avrà ripercussioni non solo sulle future pratiche commerciali ma anche sul dialogo più ampio riguardante l’equilibrio tra innovazione tecnologica e diritti degli individui.
La comunità globale osserva con attenzione, consapevole che le decisioni prese oggi potrebbero plasmare il paesaggio culturale e creativo di domani.
Intelligenza Artificiale e Diritto d’Autore: Un Caso Giudiziario in Evoluzione
Nel contesto delle controversie legali che vedono coinvolti gli artisti umani e le aziende di intelligenza artificiale (IA), un evento significativo ha segnato una svolta nel dibattito sul diritto d’autore nell’era digitale.
In ottobre, la decisione del giudice della corte distrettuale degli Stati Uniti William H. Orrick ha rappresentato un momento decisivo: il rifiuto di procedere con gran parte della causa legale intentata contro le aziende di IA da artisti visivi come Sarah Anderson, Kelly McKernan e Karla Ortiz.
Il giudice William H. Orrick del distretto settentrionale della California ha emesso una sentenza favorevole a Stability AI, Midjourney e DeviantArt in una causa collettiva per violazione del copyright intentata da tre artisti.
La mozione per archiviare il caso è stata “in gran parte accolta” perché la denuncia presentava diverse carenze, tra cui il fatto che due degli artisti non avevano registrato i loro lavori presso l’ufficio copyright degli Stati Uniti e un altro aveva protetto solo una frazione delle opere citate.
Inoltre, è stato ritenuto non plausibile che ogni immagine utilizzata per addestrare gli algoritmi fosse protetta da copyright o che le immagini generate derivassero tutte da opere protette.
Tuttavia, il giudice ha permesso di procedere con un’accusa di violazione diretta del copyright contro Stability AI per aver copiato specifiche opere protette di uno degli artisti.
Orrick ha anche invitato gli artisti a riformulare le loro affermazioni per una causa più ristretta.
Questa battuta d’arresto per gli artisti solleva questioni critiche riguardanti l’equilibrio tra innovazione tecnologica e diritti degli autori. Da una parte, vi è la necessità di nutrire l’innovazione e permettere alle IA di apprendere da vasti dataset per migliorare la loro efficienza e utilità.
Dall’altra, persiste la necessità di tutelare gli artisti e i loro contributi creativi, che rappresentano il fondamento culturale su cui tali tecnologie si costruiscono.
Il caso è emblematico delle sfide che emergono nell’intersezione tra creatività umana e algoritmica, e potrebbe segnare un precedente importante per il futuro del diritto d’autore nell’era dell’IA.
Gli occhi sono puntati sulle mosse successive degli artisti e sulle possibili ripercussioni che le decisioni giudiziarie avranno sul panorama legale e creativo globale.
In termini molto semplici
Immaginiamo che ci sia una grande biblioteca piena di libri di tutti i tipi. Alcuni di questi libri sono stati scritti da autori che vogliono essere pagati ogni volta che qualcuno legge o usa le loro storie.
Ora, ci sono alcune persone che hanno costruito delle macchine molto particolari, che possono leggere tutti questi libri e poi scrivere nuove storie da soli, mescolando pezzi di storie già esistenti.
Tre scrittori hanno notato che alcune parti delle loro storie sono state usate da queste macchine per creare nuove storie e non erano contenti, perché nessuno li aveva chiesti il permesso o li aveva pagati.
Quindi, hanno deciso di portare in tribunale le persone che hanno costruito queste macchine.
Il giudice ha ascoltato tutti e ha detto: “Beh, non è così semplice.
Primo, due di voi non hanno messo il proprio nome sulla copertina dei libri per dire chiaramente ‘questa storia è mia e dovete pagarmi se la usate’. Secondo, anche se avete messo il nome su alcuni libri, la macchina ha letto così tanti libri di tante persone diverse che è difficile dire che la nuova storia è solo una copia della vostra. Tuttavia, per uno di voi che ha messo il nome su alcuni libri, sembra che la macchina abbia usato proprio quelle storie per fare qualcosa di nuovo. Quindi, quella parte della discussione può continuare in tribunale.”
Il giudice ha anche detto agli scrittori che se possono mostrare esattamente quali parti delle loro storie sono state usate e come, allora possono provare a parlare di nuovo in tribunale con un argomento più preciso.
Quindi, la storia non è finita, ma per ora, le macchine possono continuare a scrivere le loro nuove storie.
Il ragionamento del Giudice Orrick
. La decisione di Orrick non ha completamente chiuso il caso, ma ha piuttosto invitato i querelanti a presentare una denuncia modificata. Questo lascia intravedere un’opportunità per gli artisti di rafforzare la loro posizione legale e di ripresentare il caso con una base più solida.
La mossa del giudice Orrick apre un dialogo importante sulle responsabilità legali degli artisti nel proteggere le proprie opere nell’era digitale.
Il futuro della causa, e potenzialmente di molte altre simili, dipenderà ora dalla capacità degli artisti di navigare nel complesso sistema del diritto d’autore e dalla volontà delle aziende di IA di collaborare per trovare un equilibrio etico e legale che rispetti sia l’innovazione sia i diritti degli autori.
Il nuovo fronte
La battaglia legale che oppone gli artisti alle aziende di intelligenza artificiale (IA) si intensifica con l’entrata in scena di nuovi querelanti.
Nella denuncia modificata presentata a dicembre 2023, il fronte degli artisti si allarga, accogliendo sette nuovi nomi che si aggiungono agli imputati originali: Hawke Southworth, Grzegorz Rutkowski, Gregory Manchess, Gerald Brom, Jingna Zhang, Julia Kaye e Adam Ellis.
https://storage.courtlistener.com/recap/gov.uscourts.cand.407208/gov.uscourts.cand.407208.129.0.pdf
Particolarmente degno di nota è il coinvolgimento di Grzegorz Rutkowski, un artista polacco il cui lavoro ha già guadagnato fama internazionale.
Conosciuto per aver creato opere per videogiochi e giochi di carte di alto profilo come “Horizon Forbidden West”, “Dungeons & Dragons” e “Magic: The Gathering”, Rutkowski porta alla causa una visibilità e un peso che non possono essere sottovalutati.
La presenza di questi artisti aggiunge ulteriore complessità al caso, poiché ognuno di loro porta con sé una storia personale di creatività e un portafoglio di opere che potrebbero essere state utilizzate senza permesso per addestrare algoritmi di IA.
Questa mossa strategica potrebbe rafforzare la posizione legale del gruppo, sottolineando la vastità e la diversità del talento artistico potenzialmente influenzato dall’uso delle loro opere da parte delle aziende di IA.
La Rivendicazione di Rutkowski: Diritto d’Autore e Identità Artistica nell’Intelligenza Artificiale
Già un anno fa, il nome di Grzegorz Rutkowski aveva fatto eco nei media per le sue lamentele contro le applicazioni di arte basate sull’intelligenza artificiale (IA), in particolare quelle che utilizzano il modello generativo Stable Diffusion.
Rutkowski si era apertamente espresso sul fatto che queste app replicavano il suo stile unico, descritto come fantastico ed epico, a volte addirittura citando esplicitamente il suo nome, permettendo agli utenti di creare opere simili alle sue senza offrirgli alcun compenso.
Questo non solo solleva questioni riguardanti la giustizia economica e il riconoscimento del lavoro artistico, ma anche la violazione della sua identità creativa.
L’inclusione di Rutkowski come querelante nella causa rafforza l’argomento secondo cui le IA possono effettivamente compromettere i diritti degli artisti non solo sul fronte economico, ma anche nell’ambito della proprietà intellettuale e dell’identità artistica.
La sua esperienza personale aggiunge una testimonianza potente al dibattito in corso sul bilanciamento tra l’innovazione tecnologica e la protezione dei diritti degli artisti.
Jingna Zhang
Jingna Zhang, nota artista e fotografa singaporiana con base negli Stati Uniti.
Zhang, le cui opere hanno raggiunto il prestigio di apparire su riviste come Vogue, ha recentemente annunciato tramite il suo account Instagram @zemotion il suo ingresso nell’azione legale collettiva contro le aziende di IA.
Nel suo annuncio, Zhang ha espresso una posizione forte e chiara: la commercializzazione rapida dei modelli di IA generativa, basata sull’utilizzo non autorizzato di miliardi di immagini – appartenenti tanto ad artisti affermati quanto a individui comuni – rappresenta una violazione dei diritti di copyright.
La sua voce si unisce al coro di quelle che richiedono una riflessione critica e misure concrete per garantire che l’innovazione tecnologica non avanzi a scapito dei diritti degli artisti e dei creatori.
Nuove Prove e Argomentazioni Emergenti
Il terreno giuridico della battaglia tra artisti e società di intelligenza artificiale (IA) si è arricchito di nuovi elementi di prova e argomentazioni, che sembrano puntare a una causa più robusta a favore dei creatori.
Queste nuove informazioni emergono dalla denuncia modificata recentemente presentata, che contiene due punti salienti.
In primo luogo, la denuncia sostiene che anche le opere non registrate al copyright possono godere di protezione qualora includano un “marchio distintivo” dell’artista, come ad esempio la firma.
Questo aspetto è fondamentale perché molti artisti firmano le proprie opere, e tale pratica potrebbe fornire una base per rivendicare i diritti d’autore.
La denuncia solleva un problema sui dati usati dalle aziende di intelligenza artificiale (IA). Queste aziende hanno usato dei grandi archivi di informazioni chiamati LAION-400M e LAION-5B per insegnare ai loro programmi come riconoscere e creare immagini.
Questi archivi non contengono le immagini stesse, ma solo dei collegamenti a dove le immagini si trovano su internet e alcune descrizioni. Il problema è che, per insegnare ai loro programmi, le aziende potrebbero aver dovuto scaricare queste immagini.
Se le immagini sono protette da copyright, scaricarle senza permesso è come fare delle copie illegali. È come se una scuola copiasse pagine di un libro protetto da diritto d’autore per dare lezioni, senza chiedere il permesso all’autore o all’editore. Questa azione potrebbe essere illegale e sta causando dibattito sulla correttezza di ciò che hanno fatto le aziende di IA.
Il terzo punto sollevato riguarda un aspetto tecnico dei programmi di intelligenza artificiale (IA) che creano immagini.
Questi programmi, chiamati modelli di diffusione, funzionano in un modo un po’ come se stessero giocando con un puzzle. Iniziano aggiungendo confusione o “rumore” a un’immagine fino a che non è più riconoscibile, e poi cercano di togliere questo rumore per ricostruire l’immagine originale.
Il problema che viene sottolineato è che, nel tentativo di rimuovere il rumore, il programma potrebbe finire per copiare troppo fedelmente l’immagine da cui ha iniziato, che potrebbe essere protetta da copyright.
È come se qualcuno cercasse di copiare un dipinto famoso prima aggiungendo macchie di colore casuali sopra e poi cercando di rimuovere queste macchie per ricreare il dipinto originale.
Questo metodo potrebbe essere problematico perché potrebbe violare le leggi sul copyright se le immagini originali non dovrebbero essere copiate senza permesso.
Questi argomenti potrebbero portare a una maggiore comprensione del funzionamento interno dei modelli di IA e della loro capacità di replicare opere d’arte esistenti. La denuncia, quindi, non solo mette in luce le potenziali violazioni legali ma anche la tecnologia sottostante che potrebbe facilitarle.
Ricostruzione o Riproduzione?
La denuncia modificata presentata dagli artisti contro le aziende di intelligenza artificiale (IA) mette in luce un aspetto tecnico fondamentale dei modelli di diffusione: la loro capacità intrinseca di ricostruire copie delle immagini di addestramento.
La denuncia fa notare che non si tratta di un semplice incidente quando i programmi di intelligenza artificiale (IA) ricreano immagini simili a quelle con cui sono stati addestrati.
Secondo la denuncia, il processo usato da questi programmi, chiamato diffusione, non è altro che un calcolo che il programma fa per imparare a riprodurre una copia dell’immagine usata per l’addestramento.
L’obiettivo principale di questi programmi è proprio quello di creare una versione quanto più possibile identica e fedele dell’immagine originale.
È come se un artista imparasse a dipingere copiando esattamente le opere di altri pittori, con l’intento di riprodurle il più fedelmente possibile.
Questa capacità non solo solleva preoccupazioni etiche, ma anche legali, in quanto i modelli di diffusione potrebbero essere visti come dispositivi progettati per generare riproduzioni quasi identiche del materiale su cui sono stati addestrati.
Il lavoro di Carlini
Il lavoro del ricercatore Nicholas Carlini di Google DeepMind, presentato in un documento intitolato “Extracting Training Data from Diffusion Models”, si concentra sull’analisi dei modelli di diffusione, che sono algoritmi avanzati usati per generare immagini di alta qualità.
Nel suo studio, Carlini ha scoperto che questi modelli di diffusione sono progettati per “memorizzare” e quindi riprodurre le immagini su cui sono stati addestrati.
Per spiegare in modo semplice, immagina che i modelli di diffusione siano come studenti che studiano per un esame memorizzando molte informazioni.
Carlini ha evidenziato che, proprio come uno studente che ricorda le risposte esatte da un libro di testo, questi modelli di IA possono ricordare e ricreare le immagini che hanno visto durante il loro “studio” o addestramento.
Questo potrebbe sollevare questioni importanti sulla privacy e sulla proprietà dei dati, perché se un modello può ricordare e riprodurre un’immagine, potrebbe anche rivelare immagini private o protette da copyright che dovrebbero rimanere confidenziali.
Il documento di Carlini e dei suoi colleghi ha attirato l’attenzione significativa per le sue implicazioni nella sicurezza e nell’etica dell’IA, poiché sfida la nozione che i modelli di diffusione creano semplicemente nuove immagini “da zero”.
Invece, suggerisce che questi modelli possono effettivamente “ricordare” e potenzialmente divulgare le immagini su cui sono stati addestrati.
Tali affermazioni aggiungono una nuova dimensione alla causa legale, suggerendo che le tecnologie IA potrebbero non solo utilizzare opere protette da copyright senza autorizzazione, ma anche essere progettate per riprodurre quelle opere in maniera così accurata da sfidare le attuali interpretazioni del fair use e della trasformazione artistica.
La denuncia modificata mira quindi a dimostrare che l’azione delle società di IA va oltre la semplice ispirazione o l’elaborazione basata su opere esistenti; si tratta piuttosto di una riproduzione sistematica e precisa che potrebbe violare i diritti d’autore degli artisti.
Questo punto potrebbe rivelarsi cruciale nel determinare se le pratiche delle aziende di IA rientrino o meno nei limiti della legge.
Nuove Ricerche Accendono il Dibattito sulla Diffusione Stabile e i Diritti degli Artisti
La denuncia modificata che oppone gli artisti alle società di intelligenza artificiale (IA) si arricchisce di ulteriori prove accademiche.
Un articolo scientifico di ricercatori del MIT, Harvard e Brown, pubblicato nel luglio 2023, viene citato per sostenere l’affermazione che i modelli di diffusione, e in particolare la Diffusione Stabile, sono particolarmente efficaci nel generare immagini che imitano lo stile di artisti specifici quando il loro nome è incluso nel prompt.
Secondo lo studio, questi modelli sono particolarmente bravi a creare immagini che imitano lo stile di artisti noti se il nome dell’artista è incluso nelle istruzioni date al programma.
Ad esempio, se dici al modello di intelligenza artificiale di creare un’immagine “nello stile di Van Gogh”, il modello può generare qualcosa che assomiglia molto all’arte di Van Gogh.
Dal punto di vista legale, si potrebbe discutere se è giusto usare il nome e lo stile di un artista senza il suo permesso, specialmente se l’artista detiene ancora i diritti d’autore sulle sue opere.
Dal punto di vista morale, ci si potrebbe chiedere se sia etico creare opere che imitano così da vicino lo stile di un artista, potenzialmente confondendo le persone sul chi sia il vero creatore dell’opera.
Questo articolo aggiunge una nuova dimensione al dibattito sull’intelligenza artificiale e la creatività, sottolineando la necessità di considerare attentamente come vengono utilizzati i nomi e gli stili degli artisti nel campo emergente della generazione di arte assistita dall’IA
Queste nuove prove potrebbero avere un impatto significativo sulle decisioni future della corte, influenzando la maniera in cui il diritto d’autore viene interpretato e applicato nell’era dell’intelligenza artificiale.
Con l’aggiunta di queste ricerche accademiche, la causa legale diventa sempre più un campo di battaglia per definire i confini tra innovazione tecnologica e protezione dei diritti creativi.
Intelligenza Artificiale e Proprietà Intellettuale: Le Iniziative delle Aziende per Proteggere le Opere degli Artisti
Nel contesto attuale dell’intelligenza artificiale, la questione dei diritti d’autore e della proprietà intellettuale sta assumendo un’importanza crescente.
In risposta a queste preoccupazioni, alcune aziende del settore stanno implementando misure per consentire agli artisti di escludere le proprie opere dall’essere utilizzate nell’addestramento dei modelli di intelligenza artificiale.
Ad esempio, Spawning AI, una startup che ha recentemente ottenuto finanziamenti, sta sviluppando strumenti che permettono ai creatori di optare per la non inclusione delle loro creazioni nei dataset di addestramento per l’AI generativa.
OpenAI, un leader ha introdotto un processo di opt-out semplice per gli editori, che consente loro di impedire l’accesso ai loro siti da parte degli strumenti dell’azienda.
Questa mossa segue una tendenza in cui anche altri attori del settore, come Bria, si stanno orientando verso l’addestramento di modelli AI esclusivamente su dati licenziati, come arte e foto, per navigare in modo più etico nel panorama dei diritti d’autore.
Queste iniziative rappresentano un importante riconoscimento della necessità di bilanciare l’innovazione tecnologica con il rispetto per i diritti degli artisti.
Il Dilemma dell’Originalità nell’Arte Generata dall’IA
La querela in atto apre un capitolo cruciale nel dibattito sull’intelligenza artificiale e la creatività.
La questione sollevata da Nicholas Carlini e dai suoi colleghi pone un interrogativo fondamentale: i modelli di intelligenza artificiale producono veramente qualcosa di nuovo, o si limitano a copiare e mescolare esempi già esistenti?
La risposta a questa domanda potrebbe determinare l’esito di numerose dispute legali in corso.
La pratica corrente nell’utilizzo dei generatori di arte IA, come dimostrato dall’esperienza di VentureBeat, rivela che questi modelli hanno la capacità di emulare opere d’arte conosciute, pur con variazioni.
Ad esempio, quando si fornisce a Midjourney il prompt “la Monna Lisa”, il sistema genera immagini che possono ricordare l’iconico dipinto di Leonardo da Vinci, ma senza replicarlo fedelmente.
Questo solleva questioni complesse sulla natura dell’originalità e sul valore della creazione artistica nell’era digitale.
La sfida sta nel discernere fino a che punto l’imitazione possa essere considerata un omaggio o una violazione dei diritti d’autore.
In un mondo dove la proprietà intellettuale è sacra, le implicazioni di queste tecnologie si estendono ben oltre l’ambito legale, toccando le fondamenta stesse della creatività umana e della sua espressione attraverso l’arte.
Difesa e Contrattacco nel Processo sull’IA Generativa
ìGli avvocati di Stability AI, Midjourney, Runway e DeviantArt hanno recentemente mosso una serie di azioni legali presso il tribunale distrettuale degli Stati Uniti per il distretto settentrionale della California, che include San Francisco.
Tra queste azioni, alcune mozioni mirano a ottenere l’archiviazione completa del caso.
Le società di IA generativa sostengono la legalità delle loro operazioni, gli artisti coinvolti nella causa sostengono che la loro proprietà intellettuale sia stata usata senza consenso.
La decisione del tribunale sarà un importante punto di riferimento per l’industria dell’IA e potrebbe segnare un precedente cruciale per i futuri sviluppi legali e tecnologici nel campo.
La Sottile Linea dell’IA tra Ispirazione e Imitazione
Le recenti controargomentazioni presentate dalle aziende nel campo dell’intelligenza artificiale (IA) generativa sono al centro di un acceso dibattito legale.
Queste aziende sostengono che i loro modelli di IA, che generano immagini, non producono copie dirette di opere d’arte esistenti, ma utilizzano tali opere come ispirazione per creare qualcosa di completamente nuovo: un codice in grado di generare immagini originali.
Inoltre, affermano che i loro modelli non replicano esattamente né somigliano alle opere originali degli artisti, a meno che non venga fatta una richiesta esplicita in tal senso da parte degli utenti.
Questo punto di vista pone una domanda fondamentale: può un’opera generata da IA essere considerata una creazione originale se è ispirata, ma non identica, a un’opera preesistente?
Le aziende rafforzano la loro posizione sottolineando che non è stato dimostrato che i loro modelli possano riprodurre fedelmente le opere degli artisti senza istruzioni specifiche.
Se da un lato gli artisti reclamano la protezione delle loro opere originali, dall’altro le aziende di IA rivendicano il diritto di utilizzare l’ispirazione artistica per creare nuove forme di espressione.
DeviantArt e la Sfida Legale nell’Arte Generata dall’IA
DeviantArt, una famosa piattaforma online dove gli artisti condividono le loro opere, si trova in mezzo a una disputa legale.
A differenza delle altre parti coinvolte nel caso, DeviantArt non è un’entità che produce modelli di intelligenza artificiale (IA), ma piuttosto una piattaforma che facilita la condivisione e l’interazione tra opere d’arte.
Il problema è che su DeviantArt era disponibile un programma di intelligenza artificiale (IA) chiamato Stable Diffusion che può creare immagini.
DeviantArt afferma che il solo fatto di offrire questo programma sul loro sito non dovrebbe essere una ragione per essere coinvolti in una causa legale che riguarda la violazione dei diritti d’autore.
Per spiegare meglio, immaginiamo che DeviantArt sia come una biblioteca che offre ai suoi visitatori un libro su come dipingere come Leonardo da Vinci.
Se qualcuno usa il libro per creare un dipinto che assomiglia molto alla Gioconda e lo vende, la responsabilità non è della biblioteca che ha fornito il libro, ma della persona che ha creato e venduto il dipinto.
Questo è il punto centrale della loro difesa: DeviantArt sostiene di essere solo un luogo dove le persone possono trovare strumenti per creare arte, non il creatore dell’arte stessa.
La questione legale qui è se le piattaforme online come DeviantArt debbano controllare e limitare l’accesso a strumenti come Stable Diffusion, che potrebbero essere usati per copiare opere d’arte protette da diritto d’autore.
Nel loro ultimo documento legale, DeviantArt ha evidenziato che la semplice offerta di un codice di generazione di immagini IA sul proprio sito non dovrebbe essere un motivo valido per essere implicati in una causa per violazione del copyright.
“L’inclusione di DeviantArt come imputato in questa causa non ha mai avuto senso. Le affermazioni in questione sollevano una serie di nuove domande relative al campo all’avanguardia dell’intelligenza artificiale generativa, incluso se la legge sul copyright vieta ai modelli di intelligenza artificiale di apprendere modelli, stili e concetti di base da immagini rese disponibili per il consumo pubblico su Internet. . Ma nessuna di queste domande implica DeviantArt…
“I querelanti hanno ora presentato due denunce in questo caso, e nessuno dei due tenta di affermare che DeviantArt abbia mai utilizzato direttamente le immagini dei querelanti per addestrare un modello di intelligenza artificiale, per utilizzare un modello di intelligenza artificiale per creare immagini che assomigliano alle immagini dei querelanti, offrire a terze parti un modello di intelligenza artificiale che sia mai stato utilizzato per creare immagini che assomigliano a quelle dei querelanti o in qualsiasi altro modo plausibile e rilevante. Invece, i querelanti hanno incluso DeviantArt in questa causa perché ritengono che la semplice implementazione di un modello di intelligenza artificiale creato, addestrato e distribuito da altri renda l’implementatore responsabile della violazione di ciascuno dei miliardi di opere protette da copyright utilizzate per addestrare quel modello, anche se l’implementatore era completamente ignaro e non coinvolto nello sviluppo del modello.”
In sostanza, DeviantArt sostiene che la semplice implementazione di un generatore di immagini AI realizzato da altre persone/aziende non dovrebbe, di per sé, costituire una violazione.
Dopotutto, DeviantArt non controllava il modo in cui venivano realizzati questi modelli di intelligenza artificiale: prendeva semplicemente ciò che veniva offerto e lo utilizzava.
La società sottolinea che, se si qualificasse per violazione, ciò costituirebbe un ribaltamento di precedenti che potrebbero avere impatti di vasta portata e, secondo le parole dei suoi avvocati, “assurdi” sull’intero campo della programmazione e dei media. Come recita l’ultimo documento:
” In parole povere, se i querelanti possono avanzare un reclamo contro DeviantArt, chiunque il cui lavoro sia stato utilizzato per addestrare un modello di intelligenza artificiale può avanzare lo stesso reclamo contro milioni di altre parti innocenti, ognuna delle quali potrebbe ritrovarsi trascinata in tribunale semplicemente perché ha utilizzato questo sistema pionieristico tecnologia per costruire un nuovo prodotto i cui sistemi o risultati non hanno assolutamente nulla a che fare con il lavoro utilizzato nel processo di formazione”.
La Difesa di Runway nell’Era dell’IA
Runway, un’azienda specializzata nella generazione di video IA che ha collaborato con Stability AI nello sviluppo del modello open source Stable Diffusion, sostiene che il fatto che gli artisti citino ricerche esterne anziché fornire esempi concreti di Runway che duplica esattamente le loro opere evidenzia una mancanza di fondamento nelle loro accuse.
La società fa notare che se i modelli di diffusione fossero in grado di “memorizzare” e riprodurre esattamente le opere d’arte, gli artisti avrebbero potuto facilmente presentare tali copie come prova.
Runway sostiene quindi che l’assenza di prove dirette delle loro opere riprodotte dal modello Stable Diffusion indebolisce la posizione degli artisti.
Questa argomentazione giuridica mette in luce le complessità tecniche e legali che emergono all’intersezione tra IA e diritti d’autore, e solleva questioni significative su come definire e dimostrare la violazione del copyright nell’ambito dell’apprendimento automatico e della generazione di contenuti digitali.
Come afferma il documento di Runway:
“In primo luogo, il semplice fatto che i querelanti debbano fare affidamento su questi documenti per affermare che i modelli possono “immagazzinare” immagini di addestramento dimostra che la loro teoria è priva di merito, perché dimostra che i querelanti non sono stati in grado di ottenere copie “immagazzinate” delle loro stesse opere registrate da Diffusione Stabile, nonostante ampie opportunità di provarci. E questo è fatale per la loro affermazione”.
La denuncia continua:
“… da nessuna parte [gli artisti] affermano che loro, o chiunque altro, sia stato in grado di ottenere repliche delle loro opere registrate da Stable Diffusion inserendo istruzioni di testo. Il silenzio dei querelanti su questo tema la dice lunga, e di per sé sconfigge la loro teoria modello .
Il Fair Use nell’Arte Digitale: Equilibrio tra Diritto d’Autore e Innovazione
La dottrina del fair use è un principio fondamentale nel diritto d’autore, soprattutto nell’era digitale, dove il confine tra creazione originale e rielaborazione di contenuti esistenti è spesso sfumato.
La Corte ha ribadito che il fair use non solo è compatibile con gli obiettivi del diritto d’autore, ma li sostiene attivamente. Questo principio legale è pensato per bilanciare gli interessi degli autori con quelli della società, promuovendo la diffusione della conoscenza e incentivando la creatività.
Attraverso il fair use, opere come parodie, critiche, ricerche e reportage possono utilizzare materiali protetti da copyright senza il permesso del detentore dei diritti, purché ciò avvenga in modo conforme ai criteri stabiliti dalla legge.
Questo permette agli artisti e ai creatori di attingere alla cultura esistente per produrre nuove opere che, a loro volta, possono arricchire il panorama culturale e informativo a beneficio di tutti.
Nel contesto delle controversie riguardanti l’intelligenza artificiale e la generazione di immagini, il fair use potrebbe giocare un ruolo cruciale.
Se si considera che i modelli di IA generano opere basandosi su dati preesistenti, la questione diventa se tale utilizzo rientri nei confini del fair use o se invece costituisca una violazione dei diritti d’autore. La posizione della Corte fornisce una base per argomentare che l’innovazione tecnologica, quando favorisce la creatività e l’accesso alla conoscenza, può essere protetta e promossa sotto l’ombrello del fair use.
Grande vittoria per il fair use nella causa di Google Libri
Il blog di Corynne McSherry del 16 ottobre 2015 celebra una decisione della Corte d’Appello del Secondo Circuito che ha riconosciuto il fair use nel progetto Google Books, respingendo le rivendicazioni della Authors Guild.
La Corte ha affermato che il fair use serve l’obiettivo del diritto d’autore di espandere la conoscenza pubblica, premiando la creatività e beneficiando in ultima istanza il pubblico.
Google, collaborando con le biblioteche per digitalizzare i libri, ha creato un database di testi ricercabile che si è rivelato utile per bibliotecari, studiosi e appassionati, oltre a generare entrate per gli autori.
Il giudice Pierre Leval ha sottolineato l’importanza dell’uso trasformativo, che in questo caso è giustificato dal fine di fornire informazioni altrimenti non disponibili.
La Corte ha respinto l’argomento che la natura commerciale di Google precluda il fair use, sostenendo che il suo scopo trasformativo e l’assenza di danni sostitutivi giustificano l’uso. Anche se Google ha copiato interi libri, ciò era necessario per il suo scopo trasformativo e la funzione di ricerca. Solo piccoli frammenti sono accessibili, rendendo improbabile che possano sostituire l’originale, favorendo così il fair use.
Stability AI e la Battaglia Legale sulla Generazione di Immagini AI
La società, che ha giocato un ruolo chiave nello sviluppo e nella distribuzione del modello di IA open source Stable Diffusion, si difende sostenendo che i suoi modelli non violano di per sé il copyright, essendo essenzialmente codice software e non opere d’arte.
Inoltre, Stability AI afferma che né la società né i suoi modelli incoraggiano gli utenti a creare copie o opere simili a quelle protette dai diritti d’autore.
La difesa di Stability AI si appoggia a un precedente legale: la decisione della Corte Suprema degli Stati Uniti nel caso Sony contro Universal Studios del 1984. In quel caso, la Corte Suprema stabilì che i videoregistratori Betamax erano legali perché, nonostante potessero essere utilizzati per registrare programmi TV e film senza autorizzazione, avevano anche “usì legittimi”. Questa sentenza è diventata un punto di riferimento per definire la responsabilità dei produttori di dispositivi che possono essere usati sia in modo lecito che illecito.
In questa ottica, Stability AI sostiene che non dovrebbe essere ritenuta responsabile per l’uso illecito che gli utenti potrebbero fare dei suoi modelli di IA. La società sottolinea l’assenza di prove concrete che indichino una promozione dell’uso illecito dei suoi modelli, come pubblicità o indicazioni specifiche nel codice sorgente che suggeriscano un’intenzione di violare i diritti d’autore.
Midjourney e la Polemica sui Diritti degli Artisti nell’IA
Midjourney, la piattaforma di generazione di immagini AI creata da David Holz, ha catturato l’attenzione del mondo con decine di milioni di utenti e viene celebrata per la sua alta qualità e influenza nel campo artistico dell’intelligenza artificiale.
Un episodio chiave in questa controversia è avvenuto quando Jon Lam, artista presso Riot Games, ha condiviso screenshot di messaggi scritti da Holz nel server Discord di Midjourney. Questi messaggi risalivano a prima del lancio pubblico della piattaforma e includevano un link a un foglio di calcolo di Google Sheets. Questo documento, preparato da Midjourney, elencava nomi di artisti e stili che potevano essere utilizzati dagli utenti per influenzare le immagini create con il comando “/style”.
Lam ha interpretato questi messaggi come evidenza che Midjourney avrebbe “riciclato” e creato un database degli stili degli artisti per addestrare la sua IA, riducendo gli artisti stessi a semplici etichette stilistiche.
Questa accusa è stata poi portata come prova nel contesto legale in corso, alimentando il dibattito sulla protezione dei diritti degli artisti nell’era dell’intelligenza artificiale e sulle implicazioni etiche dell’addestramento dei modelli di IA con opere d’arte esistenti.
Conclusione
Mentre il primo anno dell’era dell’intelligenza artificiale (IA) generativa si chiude, ci troviamo al cospetto di un panorama che interpella la nostra coscienza etica e sollecita una riflessione sulle norme giuridiche. L’IA, con la sua stupefacente capacità di generare testi, immagini e codici, ha scatenato un dibattito acceso sulla proprietà intellettuale e il consenso degli artisti, aprendo scenari inesplorati.
Le implicazioni delle recenti azioni legali intraprese dagli artisti umani contro i colossi della tecnologia generativa sono immense. Queste cause potrebbero delineare nuovi confini legali che plasmeranno il futuro della proprietà intellettuale nell’era digitale. Al cuore del contendere vi è il diritto degli artisti di mantenere il controllo sulle proprie creazioni originali e sul loro valore intrinseco.
Un verdetto a favore degli artisti potrebbe introdurre nuove responsabilità per le aziende tecnologiche, forzando un cambiamento nelle pratiche di addestramento dei modelli IA. Al contrario, un esito che sostenga le pratiche attuali potrebbe dare un impulso all’innovazione, ma con il rischio di marginalizzare ulteriormente i creatori originali.
La decisione che verrà presa non influenzerà soltanto le pratiche commerciali future ma anche il dialogo più ampio sull’equilibrio tra progresso tecnologico e diritti individuali. È essenziale che questo dibattito continui, coinvolgendo esperti legali, creatori e sviluppatori di IA per sviluppare un quadro normativo che rispetti la creatività e promuova l’accesso alla conoscenza.
In conclusione, mentre le tecnologie generative avanzano a passo spedito, è cruciale che la società civile, gli esperti legali e i creatori collaborino per garantire che l’innovazione non vada a discapito dell’integrità artistica e dei diritti d’autore. Il dialogo tra le parti interessate sarà determinante per forgiare un futuro in cui l’arte e la tecnologia possano coesistere in armonia, rispettando sia la legge che l’etica.
In questo contesto in continua evoluzione, le decisioni odierne gettano le basi per il domani: è nostro dovere assicurare che tali basi siano solide, giuste e orientate verso un progresso che valorizzi ogni forma di espressione creativa.