Introduzione
L’Italia e l’Intelligenza Artificiale: Una Strategia Ambiziosa tra Sfide e Opportunità
Introduzione
Il 23 aprile 2024, l’Italia ha compiuto un passo significativo nel panorama dell’intelligenza artificiale (IA) con l’approvazione, da parte del Consiglio dei ministri, di un disegno di legge dedicato.
Questa iniziativa pone l’Italia in una posizione di avanguardia in Europa, rendendola il primo paese del continente a dotarsi di una legislazione specifica per questo settore in rapida evoluzione.
Il disegno di legge non solo si allinea con l’AI Act europeo, approvato dal Parlamento Europeo il 13 marzo 2024, ma si spinge oltre, adattando il quadro regolatorio alle esigenze e specificità nazionali.
Il provvedimento legislativo mira a navigare le sfide e le opportunità offerte dall’IA attraverso una visione completa che enfatizza l’innovazione, la protezione dei diritti fondamentali e la sicurezza dei cittadini. Tra gli obiettivi principali vi sono l’incoraggiamento alla ricerca e allo sviluppo nel campo dell’IA, la promozione della trasparenza e della responsabilità nell’uso delle tecnologie intelligenti, e l’adozione di standard etici per la loro creazione e impiego.
Un aspetto fondamentale del disegno di legge è l’attenzione verso l’etica e la protezione dei dati personali, in linea con il Regolamento Generale sulla Protezione dei Dati (GDPR) dell’UE. Il testo legislativo enfatizza inoltre l’importanza di sviluppare sistemi di IA robusti e trasparenti, comprensibili e controllabili dagli utenti, promuovendo un’IA inclusiva e non discriminatoria.
Attraverso questa legislazione, l’Italia si propone di stabilire principi chiave per la ricerca, lo sviluppo, l’adozione e l’applicazione di sistemi e modelli di IA, adottando un approccio etico e responsabile all’innovazione tecnologica.
Questo approccio antropocentrico mira a massimizzare i benefici dell’IA, garantendo al contempo una gestione efficace dei potenziali rischi. Il disegno di legge sottolinea, inoltre, la necessità di un’interpretazione e applicazione delle sue disposizioni in conformità con il diritto dell’Unione Europea, promuovendo un quadro normativo armonizzato a sostegno dell’innovazione responsabile e della protezione dei cittadini nel mercato unico digitale.
La struttura del disegno di legge, composta da 25 articoli suddivisi in sei capitoli, riflette un’approccio multidimensionale volto a indirizzare vari aspetti dell’IA, dalla sicurezza dei dati alla trasparenza dei processi decisionali, dall’etica all’inclusività.
Una novità rilevante è l’introduzione di una Strategia nazionale per l’intelligenza artificiale, che promuove la collaborazione tra il settore pubblico e quello privato e coordina le azioni della pubblica amministrazione e le misure economiche rivolte allo sviluppo industriale. Particolare attenzione è dedicata alla tutela dei diritti e della dignità umana, assicurando che l’uso dell’IA sia sicuro, affidabile e rispettoso della dignità umana.
Il disegno di legge stabilisce che, entro dodici mesi dall’approvazione, il governo dovrà attuare uno o più decreti legislativi per adeguare la legislazione nazionale al regolamento europeo.
Il DDL introduce inoltre sanzioni penali per l’illecita diffusione di contenuti generati o manipolati con sistemi di IA che ingannano sulla loro genuinità, prevedendo pene fino a cinque anni di reclusione, e stabilisce investimenti significativi per il sostegno a startup e progetti di ricerca nel campo dell’IA.
Gli investimenti nel settore
Circa un anno fa, il Sottosegretario Butti annunciava l’istituzione di un fondo misto pubblico-privato per l’IA, destinato a raggiungere una dotazione di 800 milioni di euro. Questa iniziativa è stata successivamente ampliata con l’annuncio di un fondo da 1 miliardo di euro da parte di Cassa Depositi e Prestiti (CDP), segnando un impegno significativo nella promozione delle tecnologie innovative.
CDP è autorizzata a investire fino a un miliardo di euro per acquisire partecipazioni nel capitale di rischio di piccole e medie imprese (PMI) innovative con un alto potenziale di sviluppo.
Queste imprese devono avere la loro sede operativa in Italia e operare in settori chiave come l’intelligenza artificiale, la cybersicurezza, il calcolo quantistico, e le tecnologie abilitanti per queste aree, così come nel settore delle telecomunicazioni, con un focus particolare su tecnologie come il 5G, il mobile edge computing, e il Web 3.
L’investimento mira a supportare le imprese in diverse fasi di sviluppo, dalla sperimentazione iniziale (seed financing) alla crescita e espansione del prodotto (expansion, scale-up financing).
ART. 21 Investimenti nei settori di intelligenza artificiale, della cybersicurezza e calcolo quantistico
Investimenti Strategici e Sviluppo Tecnologico:
- Con un’autorizzazione all’investimento fino a un miliardo di euro, l’articolo 21 si propone di supportare finanziariamente le PMI innovative italiane attive nei campi chiave della tecnologia. Questo sostegno finanziario è mirato a promuovere l’innovazione e la competitività in aree strategiche per l’economia digitale e tecnologica dell’Italia.
Supporto alle Imprese in Diverse Fasi di Sviluppo:
- L’articolo 21 mira a sostenere le imprese nelle varie fasi di sviluppo, dal finanziamento iniziale alla costituzione, dall’avvio dell’attività allo sviluppo del prodotto. Questo approccio garantisce che le imprese possano ricevere il sostegno finanziario necessario in momenti critici del loro percorso di crescita.
Utilizzo di Fondi per il Venture Capital:
- Gli investimenti saranno realizzati attraverso il Fondo di sostegno al venture capital, dimostrando un impegno a utilizzare strumenti finanziari esistenti per mobilizzare risorse significative in supporto all’innovazione tecnologica.
Governance e Collaborazione Pubblico-Privato:
- La partecipazione di rappresentanti governativi e di agenzie specializzate ai fondi di venture capital sottolinea l’importanza della collaborazione tra il settore pubblico e quello privato. Questo approccio partecipativo è fondamentale per guidare l’avanzamento tecnologico e assicurare che gli investimenti siano allineati con le priorità nazionali.
Impatto Economico e Sociale:
- Attraverso questi investimenti, l’articolo 21 non solo rafforza la posizione tecnologica dell’Italia ma ha anche il potenziale di creare posti di lavoro qualificati, stimolare la crescita economica, e migliorare la sicurezza e la qualità della vita dei cittadini.
Art. 19 e il finanziamento al Ministero degli esteri
L’articolo 19 del disegno di legge (DDL) sull’intelligenza artificiale in Italia si concentra sull’applicazione sperimentale dell’intelligenza artificiale ai servizi forniti dal Ministero degli affari esteri e della cooperazione internazionale.
Questa iniziativa è un esempio dell’impegno dell’Italia verso l’integrazione dell’innovazione tecnologica nei servizi pubblici, con l’obiettivo di migliorarne l’efficienza e l’efficacia. Il finanziamento specifico stanziato per questi progetti evidenzia la serietà dell’impegno verso l’esplorazione delle potenzialità dell’IA nel migliorare i servizi offerti ai cittadini e alle imprese.
Sinossi Integrata dell’Articolo 19:
- Finanziamento e Obiettivi:
- Con un finanziamento di 300.000 euro annui per gli anni 2025 e 2026, l’articolo 19 prevede lo sviluppo di progetti sperimentali che applicano l’intelligenza artificiale ai servizi del Ministero degli affari esteri e della cooperazione internazionale. Questi progetti mirano a esplorare come l’IA possa rendere i servizi più accessibili, efficienti e personalizzati per cittadini e imprese.
- Gestione Finanziaria:
- I fondi per questi progetti sperimentali provengono da una riduzione corrispondente dello stanziamento del fondo speciale di parte corrente, indicando un reindirizzamento delle risorse esistenti verso l’innovazione tecnologica nel settore pubblico.
Potenziali Implicazioni e Benefici:
- Innovazione nei Servizi Consolari e di Cooperazione:
- L’applicazione dell’IA potrebbe trasformare i servizi consolari, rendendo più semplice per i cittadini ottenere assistenza, sia che si tratti di emergenze all’estero o di servizi routinari. Analogamente, la cooperazione internazionale potrebbe beneficiare di processi decisionali migliorati e personalizzati basati sull’analisi dei dati.
- Efficienza e Accessibilità:
- Implementando l’IA, il Ministero potrebbe gestire le richieste in modo più efficiente, riducendo i tempi di attesa e migliorando l’esperienza complessiva degli utenti. L’accesso ai servizi potrebbe essere ampliato attraverso interfacce utente intuitive e assistenza automatizzata.
- Sperimentazione Guidata dalla Valutazione:
- I progetti sperimentali offrono l’opportunità di valutare l’efficacia dell’IA in contesti specifici, permettendo al Ministero di adattare e ottimizzare l’uso delle tecnologie in base ai risultati ottenuti.
- Implicazioni per la Politica Estera e la Sicurezza:
- L’adozione dell’IA potrebbe anche avere implicazioni per la politica estera e la sicurezza, offrendo nuovi strumenti per l’analisi e la gestione delle crisi internazionali, nonché per il rafforzamento delle relazioni diplomatiche attraverso l’analisi predittiva.
Una Visione Strategica per l’Avanzamento dell’IA
Il governo italiano, sotto la guida della Premier Giorgia Meloni, ha delineato una visione comprensiva per l’IA, che include l’assegnazione di 150 milioni di euro a fondi di venture capital focalizzati su tecnologie chiave.
Questi sforzi sono complementati da un impegno di 1 miliardo di euro attraverso CDP Venture Capital, mirato a promuovere la ricerca e le eccellenze accademiche italiane, nonché a sostenere le imprese in fase iniziale.
La Strategia Nazionale sull’IA e il Programma Strategico 2022-2024 per l’IA rappresentano pilastri fondamentali di questa iniziativa, mirando a facilitare la collaborazione tra settore pubblico e privato e a promuovere l’applicazione dell’IA nel tessuto aziendale e nella pubblica amministrazione. Inoltre, l’iniziativa congiunta tra il Ministero dell’Università e della Ricerca (MUR) italiano e il National Science Foundation (NSF) statunitense evidenzia l’importanza della cooperazione internazionale nel campo dell’IA.
L’art. 17 e la strategia nazionale
Questo articolo si propone di creare un quadro collaborativo tra il settore pubblico e quello privato, sottolineando l’importanza di una gestione coordinata e strategica delle risorse e delle competenze in questo ambito.
Sinergia e Coordinamento Strategico:
L’articolo 17 evidenzia l’importanza di una sinergia tra le diverse entità governative e il settore privato, promuovendo un ambiente collaborativo per lo sviluppo dell’IA. La strategia nazionale per l’intelligenza artificiale diventa un documento guida che mira a unire sforzi e risorse verso obiettivi comuni di innovazione, sicurezza e sviluppo etico dell’IA.
Incentivi e Supporto allo Sviluppo:
Gli incentivi economici e il supporto al settore imprenditoriale e industriale dell’IA sottolineati nell’articolo sono fondamentali per stimolare la ricerca, l’innovazione e l’adozione di soluzioni basate sull’intelligenza artificiale. Questo approccio non solo favorisce la crescita economica ma anche assicura che l’Italia rimanga competitiva nel panorama tecnologico globale.
Monitoraggio e Valutazione Continua:
L’impegno verso un monitoraggio e una valutazione annuale dell’efficacia della strategia garantisce una trasparenza e una responsabilità nel processo di implementazione delle politiche di IA. Questo permette di adeguare e ottimizzare continuamente le strategie in base ai risultati ottenuti e alle evoluzioni del settore.
Ruolo delle Autorità Nazionali:
La designazione delle Autorità nazionali per l’intelligenza artificiale come enti responsabili dell’applicazione e dell’attuazione della normativa sull’IA enfatizza l’importanza di una regolamentazione chiara e di un controllo efficace. Questo assicura che lo sviluppo e l’uso dell’IA nel paese siano conformi agli standard nazionali e internazionali, garantendo sicurezza e conformità etica.
Importanza dell’Educazione e dell’Innovazione:
L’inclusione dell’università e della ricerca nel processo di definizione e implementazione della strategia nazionale per l’intelligenza artificiale sottolinea il ruolo cruciale dell’istruzione superiore e dell’innovazione scientifica. Questo approccio promuove una base solida di conoscenza e competenza che è essenziale per il progresso tecnologico e per affrontare le sfide future nel campo dell’IA.
In conclusione, l’articolo 17 esalta la collaborazione, l’innovazione, e un impegno verso la sicurezza e l’etica, l’Italia si posiziona per sfruttare al meglio le potenzialità offerte dall’intelligenza artificiale, promuovendo allo stesso tempo uno sviluppo sostenibile e responsabile.
Una rivoluzione a costo 0
Nonostante l’impegno evidente, la discrepanza tra gli annunci e gli stanziamenti effettivi solleva preoccupazioni sulla capacità di queste iniziative di incidere significativamente sul settore dell’IA in Italia.
La divisione dei fondi tra più ambiti tecnologici potrebbe limitare l’impatto degli investimenti, mettendo in discussione la strategia di finanziamento adottata.
La sfida principale per l’Italia rimane quella di concentrare le risorse in modo efficace, assicurando che le startup più promettenti possano crescere rapidamente. Solo attraverso un impegno focalizzato e sostenuto, l’Italia potrà consolidare la sua posizione nel panorama internazionale dell’innovazione in IA, trasformando le sfide attuali in opportunità future. La strada è tracciata; ora è il momento di percorrerla con determinazione e visione strategica.
Le linee guida della Commissione Ue
A fine marzo 2024, la Commissione Europea ha pubblicato delle linee guida sull’uso responsabile dell’intelligenza artificiale generativa (GenAI) nella ricerca, mirando a fornire un orientamento etico e responsabile per la comunità di ricerca europea. Queste linee guida si fondano sui principi dell’integrità della ricerca e mirano a garantire che l’uso dell’IA generativa sia coerente in tutta Europa, affrontando le principali opportunità e sfide, tra cui il rischio di plagio, la divulgazione di informazioni sensibili e i pregiudizi intrinseci nei modelli di IA.
I punti chiave includono l’invito ai ricercatori a evitare l’uso di strumenti di IA generativa in attività sensibili come le revisioni o le valutazioni tra pari, il rispetto della privacy, della riservatezza e dei diritti di proprietà intellettuale, e l’incoraggiamento a un uso trasparente dell’IA generativa da parte degli enti finanziatori.
Le organizzazioni di ricerca sono invitate a facilitare un uso responsabile dell’IA e a monitorare come questi strumenti vengono sviluppati e utilizzati.
La Commissione sottolinea sia i rischi sia il potenziale immenso dell’IA generativa nel campo della ricerca, dove può accelerare la scoperta scientifica e migliorare l’efficacia e la velocità dei processi di ricerca. Le linee guida si basano su framework esistenti, come il “codice di condotta europeo per l’integrità della ricerca” e le “Linee guida etiche per un’IA affidabile”, e sono indirizzate ai ricercatori, alle organizzazioni di ricerca e agli enti che finanziano la ricerca, sottolineando la necessità di un approccio etico all’innovazione tecnologica nel settore della ricerca.
.Queste raccomandazioni sono rivolte a tre gruppi principali: ricercatori, organizzazioni di ricerca e organizzazioni che finanziano la ricerca, con l’obiettivo di promuovere un uso etico e responsabile dell’IA generativa.
Per i ricercatori, la Commissione sottolinea la necessità di adottare i principi fondamentali dell’integrità della ricerca e di utilizzare l’IA generativa in modo trasparente, mantenendo la responsabilità sull’output. È fondamentale utilizzare l’IA generativa preservando la privacy, la confidenzialità e i diritti di proprietà intellettuale, sia nella fase di input che nella generazione degli output. I ricercatori sono inoltre invitati a mantenere un approccio critico nell’uso dell’IA generativa e ad astenersi dall’utilizzo di strumenti di IA generativa in attività sensibili, come le peer review.
Le organizzazioni di ricerca sono incoraggiate a favorire un approccio critico all’uso dell’IA generativa e a monitorare attivamente lo sviluppo e l’utilizzo degli strumenti di IA. Dovrebbero inoltre tenere in considerazione le linee guida della Commissione, adattandole o ampliandole quando necessario, e implementare i propri strumenti di IA generativa tenendo in considerazione la protezione dei dati personali e la riservatezza.
Infine, le organizzazioni che finanziano la ricerca sono chiamate a sostenere l’uso responsabile dell’IA generativa nella ricerca e a utilizzare l’IA generativa in modo trasparente, garantendo riservatezza e correttezza.
Queste raccomandazioni rappresentano un tentativo importante di indirizzare le potenzialità e le sfide poste dall’intelligenza artificiale generativa nel campo della ricerca, promuovendo un ambiente di ricerca innovativo, etico e responsabile.
I nuovi bandi
Recentemente, la Commissione Europea ha annunciato l’apertura di bandi per la presentazione di progetti nell’ambito del programma biennale 2023-2024 di Horizon Europe, dedicato alla ricerca e all’innovazione nel settore dell’intelligenza artificiale (IA) e delle tecnologie quantistiche.
La Commissione si impegna a investire oltre 65 milioni di euro nel settore dell’IA, di cui 50 milioni sono destinati a finanziare iniziative volte a esplorare nuovi metodi per l’integrazione dei dati e per potenziare le capacità avanzate dei modelli di IA. Questo investimento mira a estendere l’uso dell’IA in settori inesplorati, promuovendo al contempo la leadership europea nella ricerca in questo campo. I rimanenti 15 milioni di euro saranno allocati allo sviluppo di sistemi di IA affidabili e trasparenti, con l’obiettivo di rafforzare la fiducia nell’IA e chiarire i meccanismi decisionali sottostanti. Questi finanziamenti sono diretti a favorire lo sviluppo di tecnologie IA che siano in linea con la regolamentazione europea sull’IA e che seguano l’approccio europeo centrato sull’essere umano.
Inoltre, 40 milioni di euro saranno destinati a promuovere la ricerca nelle tecnologie quantistiche, con 25 milioni di euro dedicati alla creazione di una rete paneuropea di gravimetri quantistici. Quest’ultima avrà il compito di effettuare misurazioni della gravità estremamente precise, fondamentali in ambiti quali l’osservazione terrestre e l’ingegneria civile. I restanti 15 milioni di euro saranno investiti in progetti transnazionali di ricerca e sviluppo sulle tecnologie quantistiche emergenti, con l’obiettivo di mantenere l’UE in posizione di leadership nel settore a livello globale.
Un ulteriore investimento di 7,5 milioni di euro sarà destinato a progetti che promuovono i valori europei e pongono i cittadini al centro della trasformazione digitale, con l’intento di rafforzare il ruolo dell’UE nella definizione degli standard globali nel campo delle tecnologie dell’informazione e della comunicazione.
Le proposte dovranno essere presentate entro il 18 settembre 2024. Questi bandi fanno parte del programma di lavoro di Horizon Europe per il biennio 2023-2024, e ulteriori inviti saranno annunciati per il programma del 2025.
Le definizioni
Nell’ambito della presente legge, vengono fornite specifiche definizioni chiave per garantire una comprensione chiara e univoca dei termini utilizzati in relazione all’intelligenza artificiale (IA).
Queste definizioni sono fondamentali per interpretare correttamente la legge e per applicarla in maniera efficace:
a) sistema di intelligenza artificiale: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti,
raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali;
b) dato: qualsiasi rappresentazione digitale di atti, fatti o informazioni e qualsiasi raccolta di tali atti, fatti o informazioni, anche sotto forma di registrazione sonora, visiva o audiovisiva;
c) modelli di intelligenza artificiale: modelli che identificano strutture ricorrenti attraverso l’uso di collezioni di dati, che hanno la capacità di svolgere un’ampia gamma di compiti distinti e che possono essere integrati in una varietà di sistemi o applicazioni.
Queste definizioni stabiliscono una base solida per la comprensione e l’applicazione delle normative relative all’intelligenza artificiale, assicurando che i termini chiave siano interpretati in modo uniforme attraverso il testo legislativo.
Principi generali
La ricerca, la sperimentazione, lo sviluppo, l’adozione, l’applicazione e l’utilizzo di sistemi e modelli di intelligenza artificiale avvengono nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione Europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.
Lo sviluppo di sistemi e di modelli di intelligenza artificiale avviene su dati e tramite processi di cui deve essere garantita e vigilata la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza, secondo il principio di proporzionalità in relazione ai settori nei quali sono utilizzati.
I sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità e dei principi di cui al comma 1.
L’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica.
Al fine di garantire il rispetto dei diritti e dei principi di cui al presente articolo deve essere assicurata, quale precondizione essenziale, la cybersicurezza lungo tutto il ciclo di vita dei sistemi e dei modelli di intelligenza artificiale, secondo un approccio proporzionale e basato sul rischio, nonché l’adozione di specifici controlli di sicurezza, anche al fine di assicurarne la resilienza contro tentativi di alterarne l’utilizzo, il comportamento previsto, le prestazioni o le impostazioni di sicurezza.
La presente legge garantisce alle persone con disabilità il pieno accesso ai sistemi di intelligenza artificiale e alle relative funzionalità o estensioni, su base di uguaglianza e senza alcuna forma di discriminazione e di pregiudizio, in conformità alle disposizioni della Convenzione delle Nazioni
Unite sui diritti delle persone con disabilità, fatta a New York il 13 dicembre 2006, ratificata e resa esecutiva ai sensi della legge 3 marzo 2009, n. 18.
Principi in materia di informazione e di riservatezza dei dati personali
La sezione della legge dedicata ai principi in materia di informazione e di riservatezza dei dati personali stabilisce le linee guida per l’uso etico e responsabile dei sistemi di intelligenza artificiale (IA), con un’enfasi particolare sulla protezione della privacy e dei diritti degli individui.
Ecco i principi chiave:
- Libertà e Integrità dell’Informazione: L’impiego di sistemi di IA nel campo dell’informazione deve avvenire rispettando la libertà e il pluralismo dei media, la libertà di espressione, e assicurando che l’informazione sia oggettiva, completa, imparziale e leale. Questo principio garantisce che l’uso dell’IA non comprometta i valori fondamentali della società democratica.
- Trattamento Lecito dei Dati Personali: L’uso dei sistemi di IA deve garantire un trattamento dei dati personali che sia lecito, corretto e trasparente, rispettando le finalità per cui i dati sono stati raccolti. Questo deve avvenire in conformità con la legislazione dell’Unione europea sulla protezione dei dati personali e sulla riservatezza, assicurando una gestione dei dati che tuteli la privacy degli individui.
- Comunicazione Chiara e Accessibile: Tutte le informazioni e le comunicazioni relative al trattamento dei dati personali nell’ambito dell’uso di sistemi di IA devono essere presentate in un linguaggio chiaro e semplice. Ciò garantisce che gli utenti siano pienamente informati e possano esercitare il diritto di opporsi a trattamenti non corretti dei propri dati personali.
- Protezione dei Minori: L’accesso alle tecnologie di IA da parte dei minori di quattordici anni richiede il consenso di chi esercita la responsabilità genitoriale. I minori che hanno compiuto quattordici anni, ma non ancora diciotto, possono esprimere il proprio consenso al trattamento dei dati personali legati all’uso di sistemi di IA, a condizione che le informazioni e le comunicazioni siano facilmente accessibili e comprensibili per loro.
ART. 5 i principi in materia di sviluppo economico
L’articolo 5 della legge si concentra sui principi in materia di sviluppo economico legati all’intelligenza artificiale (IA), delineando le azioni che lo Stato e le altre autorità pubbliche sono chiamate a promuovere per favorire l’integrazione dell’IA nel tessuto economico e produttivo nazionale. Le disposizioni principali includono:
a) Promozione dell’IA nei Settori Produttivi: Lo Stato e le autorità pubbliche si impegnano a promuovere l’uso dell’intelligenza artificiale per migliorare l’interazione tra uomo e macchina nei vari settori produttivi, con l’obiettivo di aumentare la produttività lungo tutte le catene del valore e le funzioni organizzative.
Ciò è volto anche a stimolare l’avvio di nuove attività economiche, incrementando la competitività del sistema economico nazionale e rafforzando la sovranità tecnologica del paese, in linea con gli obiettivi della strategia europea.
b) Sviluppo di un Mercato dell’IA Innovativo: Viene favorita la creazione di un mercato dell’intelligenza artificiale che sia innovativo, equo, aperto e concorrenziale, oltre allo sviluppo di ecosistemi innovativi nell’ambito dell’IA.
c) Accesso a Dati di Alta Qualità: Le autorità pubbliche facilitano la disponibilità e l’accesso a dati di alta qualità per le imprese che sviluppano o utilizzano sistemi di IA, nonché per la comunità scientifica e dell’innovazione, riconoscendo l’importanza dei dati come risorsa chiave per l’innovazione nell’IA.
d) Orientamento delle Piattaforme di E-procurement: Le piattaforme di e-procurement delle amministrazioni pubbliche sono indirizzate a privilegiare, nella scelta dei fornitori di sistemi e modelli di IA, quelle soluzioni che assicurano la localizzazione ed elaborazione dei dati critici entro i confini nazionali.
Inoltre, si dà priorità a modelli di IA che garantiscono elevati standard di trasparenza nelle modalità di addestramento e sviluppo, specialmente per applicazioni basate su IA generativa, nel rispetto delle normative sulla concorrenza e dei principi di non discriminazione e proporzionalità.
ART. 6 sicurezza e la difesa nazionale
L’articolo 6 introduce disposizioni specifiche riguardanti la sicurezza e la difesa nazionale in relazione all’uso dell’intelligenza artificiale (IA). Queste disposizioni delineano un quadro normativo che esclude determinate attività di IA legate alla sicurezza nazionale dall’ambito di applicazione della legge, pur stabilendo principi e requisiti per il loro svolgimento.
Ecco i punti chiave:
- Esclusione di Specifiche Attività di IA: Le attività di IA svolte per scopi di sicurezza nazionale, cybersicurezza, resilienza e difesa nazionale, come definite dalla legge 3 agosto 2007, n. 124, e dal decreto-legge 14 giugno 2021, n. 82, sono escluse dall’ambito di applicazione della presente legge. Queste attività, svolte da organi specificati nelle leggi menzionate e dall’Agenzia per la cybersicurezza nazionale, devono tuttavia essere condotte nel rispetto dei diritti fondamentali e delle libertà garantite dalla Costituzione, in linea con i principi stabiliti dall’articolo 3, comma 4, della presente legge.
- Rispetto delle Condizioni e delle Finalità: Lo sviluppo di sistemi e modelli di IA da parte degli organismi indicati deve avvenire nel rispetto delle condizioni e delle finalità previste dall’articolo 3, comma 2. Inoltre, per quanto riguarda il trattamento di dati personali mediante l’utilizzo di sistemi di IA, si applicano le disposizioni specifiche del decreto legislativo 30 giugno 2003, n. 196, e del decreto-legge 14 giugno 2021, n. 82, a seconda dell’ente coinvolto.
- Regolamentazione e Applicazione dei Principi: Saranno adottati regolamenti, in conformità con le leggi citate, per definire le modalità di applicazione dei principi e delle disposizioni di questa legge alle attività di IA svolte per scopi di sicurezza nazionale. Questi regolamenti stabiliranno come i principi di protezione dei dati personali e di rispetto dei diritti fondamentali debbano essere applicati nelle attività di IA legate alla sicurezza nazionale, sia che siano svolte da organismi pubblici sia da soggetti privati.
In sintesi, l’articolo 6 stabilisce un quadro normativo che riconosce l’importanza della sicurezza e della difesa nazionale, escludendo certe attività di IA dall’ambito generale della legge, ma imponendo comunque che queste attività siano svolte in modo responsabile e nel rispetto dei diritti e delle libertà fondamentali.
L’articolo 18 del disegno di legge (DDL) sull’intelligenza artificiale in Italia definisce il quadro per l’istituzione delle Autorità nazionali per l’intelligenza artificiale, stabilendo le responsabilità e le funzioni dell’Agenzia per l’Italia digitale (AgID) e dell’Agenzia per la cybersicurezza nazionale (ACN). Queste agenzie sono nominate come autorità chiave nel garantire l’applicazione e l’attuazione della normativa nazionale e dell’Unione europea in materia di IA, nonché nel promuovere lo sviluppo sicuro e responsabile dell’intelligenza artificiale in Italia. Di seguito, una sintesi delle disposizioni principali e degli obiettivi dell’articolo:
Disposizioni Principali dell’Articolo 18 – L’AgID e l’ACN
- Designazione delle Autorità Nazionali: L’AgID e l’ACN sono designate come Autorità nazionali per l’intelligenza artificiale, con il compito di garantire che lo sviluppo e l’uso dell’IA nel paese siano conformi alla normativa nazionale e dell’Unione europea.
- Funzioni e Compiti dell’AgID: AgID e ACN collaborano nella gestione congiunta di spazi di sperimentazione per lo sviluppo di sistemi di IA conformi alle normative. Questo processo include la consultazione con il Ministero della difesa per gli aspetti relativi all’uso duale dell’IA.
- Coordinamento e Collaborazione: Le Autorità nazionali per l’intelligenza artificiale lavorano in coordinamento e collaborazione con altre pubbliche amministrazioni e autorità indipendenti. È istituito un Comitato di coordinamento presso la Presidenza del Consiglio dei ministri per facilitare queste interazioni.
- Competenze del Garante per la Protezione dei Dati Personali: Le funzioni e i poteri del Garante per la protezione dei dati personali rimangono inalterati, garantendo che la protezione dei dati e la privacy siano salvaguardate nello sviluppo e nell’uso dell’IA.
Obiettivi e Implicazioni:
- Conformità Normativa: Assicurare che lo sviluppo e l’uso dell’intelligenza artificiale in Italia siano in linea con le leggi nazionali e dell’Unione europea, promuovendo un approccio responsabile all’innovazione tecnologica.
- Promozione dell’Innovazione e della Sicurezza: Stimolare l’innovazione nel campo dell’IA, garantendo al contempo che le nuove tecnologie siano sicure, etiche e rispettose della privacy e dei diritti dei cittadini.
- Sperimentazione Controllata: Creare ambienti in cui le nuove soluzioni di IA possano essere testate in modo sicuro, consentendo l’innovazione pur assicurando la conformità alle normative.
- Collaborazione Inter-agenzia: Favorire una collaborazione stretta tra le agenzie governative e le autorità indipendenti per coordinare gli sforzi nello sviluppo e nella regolamentazione dell’IA.
L’AgID si concentra principalmente sulla promozione dello sviluppo dell’IA, definendo procedure e compiti per la notifica, la valutazione, l’accreditamento e il monitoraggio degli enti incaricati di verificare la conformità dei sistemi di IA alle normative vigenti. Questo include l’incoraggiamento all’innovazione e allo sviluppo tecnologico, assicurando che i sistemi di IA siano utilizzati in modo etico e responsabile.
D’altro canto, l’ACN si occupa della vigilanza sui sistemi di IA, comprese le attività ispettive e le eventuali sanzioni, in conformità con le leggi nazionali e dell’Unione Europea. Questo ruolo è vitale per mantenere alti standard di sicurezza e affidabilità nell’uso dell’IA, proteggendo i cittadini da potenziali abusi o violazioni della privacy.
Entrambe le agenzie sono inoltre incaricate di promuovere lo sviluppo dell’IA con un occhio di riguardo alla cybersicurezza, gestendo spazi di sperimentazione per testare e validare sistemi di IA in linea con le normative. Questo approccio collaborativo assicura che l’innovazione tecnologica proceda di pari passo con la sicurezza informatica, creando un ambiente sicuro per l’adozione dell’IA.
La responsabilità condivisa di AgID e ACN include anche il coordinamento e la collaborazione con altre pubbliche amministrazioni e autorità indipendenti, garantendo un approccio integrato e olistico allo sviluppo e alla regolamentazione dell’IA in Italia. Questo modello di governance riflette l’impegno dell’Italia a rispondere alle richieste dell’Unione Europea, che chiede a ciascuno Stato membro di individuare enti capaci di vigilare sull’IA, come previsto dall’AI Act, per assicurare un monitoraggio efficace e una gestione fluida di un settore in rapida crescita.
Agenzia per l’Italia Digitale (AgID)
L’AgID gioca un ruolo fondamentale nella realizzazione degli obiettivi dell’Agenda Digitale Italiana e nella promozione dell’innovazione digitale. Tra le sue responsabilità principali vi sono:
- Coordinamento Informatico: Garantisce il coordinamento informatico a tutti i livelli governativi, assicurando un approccio uniforme alla digitalizzazione.
- Diffusione delle Tecnologie: Contribuisce attivamente alla diffusione delle tecnologie dell’informazione e della comunicazione, stimolando l’innovazione e la crescita economica.
- Piano Triennale per l’Informatica: Pubblica regolarmente il Piano Triennale per l’informatica nella Pubblica Amministrazione, delineando le regole e i principi operativi per la trasformazione digitale del paese.
Agenzia per la Cybersicurezza Nazionale (ACN)
La creazione dell’ACN risponde alla necessità di rafforzare la strategia di cyber-resilienza nazionale e di gestire la sicurezza cibernetica a livello nazionale. Le sue funzioni chiave includono:
- Strategia Nazionale di Cybersicurezza: Adotta e implementa la strategia nazionale per proteggere il paese dagli attacchi informatici e promuovere una cultura della sicurezza cibernetica.
- Vigilanza sui Servizi Fiduciari: Supervisiona i servizi fiduciari e la sicurezza delle infrastrutture critiche, essenziali per la resilienza nazionale.
- Autorità Nazionale di Cybersecurity: Opera come punto di riferimento nazionale in materia di cybersecurity, focalizzandosi sulla prevenzione degli attacchi informatici.
Entrambe le agenzie garantiscono un’implementazione responsabile e sicura delle tecnologie emergenti, in coerenza con gli obiettivi di digitalizzazione e sicurezza informatica. La loro azione è supportata da una serie di risorse e documentazioni online, disponibili attraverso i loro siti web ufficiali e altre fonti affidabili, che offrono approfondimenti dettagliati sulle loro attività e sulle normative vigenti.
L’importanza di queste agenzie va oltre la semplice regolamentazione; esse sono catalizzatori di cambiamento e innovazione, promuovendo un ambiente digitale sicuro e prospero in Italia.
Il Dibattito sulla Fondazione per l’Intelligenza Artificiale: Un Nodo Cruciale nella Strategia Italiana per l’IA
La strategia italiana sull’intelligenza artificiale (IA) ha recentemente sollevato interrogativi e dibattiti, soprattutto riguardo alla decisione di escludere la Fondazione per l’Intelligenza Artificiale dal piano strategico nazionale. Questa mossa ha sorpreso molti, data l’importanza precedentemente attribuita alla fondazione come elemento centrale per il coordinamento e l’implementazione delle politiche di IA in Italia.
Il Ruolo Previsto per la Fondazione
La Fondazione per l’Intelligenza Artificiale, sotto l’egida della Presidenza del Consiglio, era stata concepita come un ente chiave per aprire la strada a collaborazioni con il settore privato e per gestire le risorse finanziarie dedicate allo sviluppo dell’IA. La sua missione includeva il monitoraggio delle attività legate all’IA e il coordinamento delle iniziative a livello nazionale, fungendo da catalizzatore per l’innovazione e la crescita nel settore.
Le Conseguenze del “Congelamento”
La decisione di non includere la Fondazione nel piano strategico ha suscitato preoccupazioni riguardo alla capacità dell’Italia di attuare efficacemente la sua strategia IA. Senza un organo dedicato a coordinare le risorse e le iniziative, esiste il rischio di una frammentazione degli sforzi e di un rallentamento nel progresso tecnologico e nell’adozione dell’IA.
Possibili Sviluppi Futuri
Nonostante la delusione iniziale, vi è ancora spazio per ottimismo. Il dibattito parlamentare potrebbe offrire l’opportunità di riconsiderare l’inclusione della Fondazione nel piano strategico. Questo momento potrebbe anche essere l’occasione per riflettere sui finanziamenti precedentemente annunciati ma poi non concretizzatisi, con l’obiettivo di stabilire una governance solida per l’IA in Italia.
Riflessioni sulla Finanziamento dell’Intelligenza Artificiale: Una Sfida Strategica per l’Italia e l’Europa
La questione del finanziamento dello sviluppo dell’intelligenza artificiale (IA) in Italia solleva un dibattito cruciale sul futuro tecnologico e economico del paese. La possibilità di avanzare una strategia sull’IA senza impattare il bilancio pubblico solleva due considerazioni fondamentali: o si crede di poter essere più astuti rispetto ad altri paesi, nonostante la necessità di recuperare uno svantaggio crescente, oppure si sottovaluta l’importanza di quella che è considerata la rivoluzione tecnologica più significativa dei nostri tempi.
Il Bisogno di Investimenti Significativi
È innegabile che lo sviluppo dell’IA richieda investimenti sostanziali, sia pubblici che privati. Questa tecnologia promette benefici enormi, ma porta con sé anche costi sociali che necessitano di essere gestiti attentamente. L’assenza di fondi significativi dal bilancio pubblico, specie alla luce di ingenti spese in settori meno strategici, pone l’Italia di fronte alla necessità di esplorare soluzioni alternative per non rimanere indietro nella corsa globale all’IA.
Soluzioni Alternative e Collaborazioni
Una delle vie proposte è quella di coinvolgere più direttamente le grandi partecipate statali, seguendo l’esempio della commissione francese che ha delineato il nuovo piano d’azione per l’IA. Un’altra strategia potrebbe essere quella di elevare la sfida al livello europeo, promuovendo la creazione di un fondo dedicato allo sviluppo dell’IA, aperto agli Stati membri dell’UE e, potenzialmente, anche a paesi extra-UE con significativi investimenti e risorse umane e finanziarie nella ricerca.
L’obiettivo di questi fondi sarebbe duplice: finanziare startup innovative e facilitare la rapida scalabilità di innovazioni disruptive che, sebbene presenti in Europa, spesso faticano a realizzarsi completamente o sono costrette a trasferirsi all’estero per svilupparsi.
Un Imperativo di Collaborazione
La situazione attuale sottolinea l’importanza di una collaborazione transnazionale per superare le limitazioni finanziarie individuali dei paesi e creare una massa critica che possa competere a livello globale. L’approccio suggerito da Emmanuel Macron nel suo discorso alla Sorbona, che invoca una maggiore unione e cooperazione europea, potrebbe servire da modello per affrontare la sfida dell’IA, sottolineando la necessità di un’azione congiunta e coordinata.
La strategia italiana sull’IA si trova a un bivio. La scelta di non allocare fondi significativi dal bilancio pubblico per il suo sviluppo solleva interrogativi sulla visione a lungo termine del paese riguardo al suo posto nell’economia tecnologica globale.
Tuttavia, esplorando soluzioni alternative e promuovendo la collaborazione a livello europeo e internazionale, l’Italia e i suoi partner possono ancora cogliere le opportunità offerte dall’IA, assicurando che i benefici di questa rivoluzione tecnologica siano accessibili e gestiti in modo equo.
Le Regulatory Sandbox: Catalizzatori dell’Innovazione Tecnologica e Finanziaria
Le regulatory sandbox emergono come strumenti fondamentali per lo sviluppo tecnologico, specialmente nel settore finanziario, ma anche in ambiti innovativi quali l’intelligenza artificiale e la blockchain. La loro funzione principale è di offrire alle aziende un ambiente regolamentato dove testare prodotti e servizi innovativi in condizioni di mercato reali, pur rimanendo sotto l’occhio vigile e in dialogo costante con le autorità di regolamentazione.
Il Funzionamento delle Sandbox
Una regulatory sandbox si configura come uno spazio, sia fisico che virtuale, dove le imprese possono esplorare e sperimentare nuove tecnologie e servizi per un periodo limitato. Ciò avviene beneficiando di deroghe temporanee alle normative vigenti, consentendo alle aziende di navigare l’innovazione senza subire l’intera pressione della regolamentazione esistente e mitigando i rischi e i costi legati all’incertezza regolamentare.
I Benefici delle Sandbox
Le sandbox portano numerosi vantaggi:
- Innovazione e Sviluppo: Creano un ambiente favorevole per l’esplorazione e lo sviluppo di nuove tecnologie, riducendo il rischio di fallimenti costosi.
- Feedback Regolatorio: Offrono alle autorità regolatorie informazioni preziose sull’operato pratico delle nuove tecnologie, facilitando la creazione di normative future più mirate.
- Attrazione di Investimenti: Generano un contesto attraente per gli investitori, permettendo loro di valutare i prodotti in un ambiente regolamentato prima di un lancio più ampio.
Le Sfide delle Sandbox
Nonostante i vantaggi, le sandbox presentano anche delle sfide:
- Accesso Limitato: Il numero limitato di aziende partecipanti potrebbe creare disuguaglianze tra le imprese.
- Rischi di Regolamentazione: C’è il rischio che le sandbox ritardino l’adozione di regolamentazioni necessarie per affrontare problemi emergenti.
Esempi Internazionali e L’Importanza nel Contesto Italiano
Le sandbox hanno trovato applicazione in diversi paesi e settori, evidenziando la loro versatilità. L’Unione Europea ha esplorato l’uso delle sandbox per la blockchain, dimostrando l’interesse a livello continentale per questi strumenti di innovazione.
In Italia, l’AI Act prevede l’utilizzo delle sandbox, assegnando competenze congiunte all’AgID e all’ACN. Questo rappresenta un passo importante verso la facilitazione dello sviluppo tecnologico, in particolare per le startup, che potrebbero beneficiare di un ambiente più favorevole per lo sviluppo e la rapida realizzazione delle loro idee. Tuttavia, restano da chiarire dettagli riguardanti i settori specifici, il numero di partecipanti e le tempistiche.
Le regulatory sandbox si confermano come strumenti preziosi per stimolare l’innovazione tecnologica, offrendo alle aziende la possibilità di testare nuove soluzioni in un contesto sicuro e regolamentato. La loro implementazione richiede un equilibrio tra libertà sperimentale e supervisione normativa, ma il potenziale per accelerare lo sviluppo di tecnologie rivoluzionarie è immenso. Nel contesto italiano, l’adozione di sandbox può rappresentare un’opportunità significativa per superare gli ostacoli regolamentari e promuovere un’innovazione sostenibile e inclusiva.
Sicurezza, Trasparenza e Responsabilità: Gestione dei Contenuti Generati dall’IA
Il disegno di legge (DDL) sull’intelligenza artificiale (IA), approvato dal governo italiano, rappresenta un’avanguardia normativa in Europa, introducendo specifiche misure per la gestione dei contenuti generati dall’IA e affrontando l’uso fraudolento di queste tecnologie. Queste normative mirano a stabilire un equilibrio tra il promuovere l’innovazione tecnologica e garantire la sicurezza e la trasparenza nell’uso dell’IA.
Queste misure includono l’obbligo di contrassegnare con una filigrana o un segno identificativo tutti i contenuti generati o manipolati da sistemi di IA, per distinguere chiaramente quelli artificiali da quelli autentici. Questo requisito è essenziale per informare gli utenti sulla natura artificiale dei contenuti e prevenire la diffusione di informazioni false.
Inoltre, il disegno di legge prevede esclusioni per i contenuti che sono chiaramente artistici o satirici, purché non ledano i diritti di terzi, consentendo una certa libertà creativa.
L’Autorità per le garanzie nelle comunicazioni (AGCOM) è incaricata di redigere un regolamento specifico per l’attuazione di queste misure, incluso l’aggiornamento della legge sul diritto d’autore per includere le opere prodotte con il contributo di sistemi di IA.
Sono state introdotte anche modifiche al codice penale per affrontare l’uso fraudolento delle tecnologie di IA, stabilendo sanzioni penali per chi diffonde contenuti falsi generati da IA che possono indurre in errore sulla loro genuinità o provenienza.
Queste iniziative legislative riflettono la preoccupazione per gli impatti sociali ed etici dell’IA, specialmente per la capacità di questi sistemi di creare contenuti che imitano la realtà. Imponendo l’uso di marcature identificative e stabilendo un quadro regolamentare chiaro, il disegno di legge mira a garantire trasparenza e responsabilità nell’uso dell’IA generativa, proteggendo i cittadini dalla disinformazione e promuovendo una maggiore consapevolezza delle potenzialità e dei limiti di questa tecnologia.
Il DDL propone meccanismi innovativi per l’identificazione dei contenuti artificialmente generati.
Il watermark
Questo include l’uso di watermarking e altri strumenti di marcatura digitale per distinguere chiaramente i contenuti prodotti dall’IA da quelli umani, affrontando così la crescente preoccupazione per la diffusione di deepfake e altre forme di manipolazione digitale
L’incarico affidato all’AGCOM per l’attuazione del watermark nei contenuti generati dall’intelligenza artificiale (IA) segna un punto cruciale nel disegno di legge italiano sull’IA.
Questo obbligo legislativo mira a rendere trasparente l’origine artificiale dei contenuti che potrebbero altrimenti essere percepiti come autentici, con il fine ultimo di prevenire la disinformazione e proteggere i diritti dei cittadini.
La misura specifica che tutti i contenuti creati o modificati tramite IA, che ritraggono soggetti, eventi o scenari in modo potenzialmente ingannevole, devono essere chiaramente identificati con una filigrana o un segno distintivo, come l’acronimo “IA”.
Per i contenuti audio, questo può includere annunci audio o l’uso di tecnologie che facilitino il riconoscimento.
L’AGCOM, in qualità di Autorità per le garanzie nelle comunicazioni, è responsabile della stesura di un regolamento dettagliato che definisca le modalità di applicazione di questo nuovo obbligo. Questo compito include anche l’aggiornamento della legislazione sul diritto d’autore per coprire le opere create con l’ausilio di sistemi di IA, assicurando che la normativa sia all’altezza delle sfide poste dalle nuove tecnologie.
È rilevante sottolineare che il disegno di legge prevede esclusioni per i contenuti chiaramente identificati come artistici o satirici che non violano i diritti di terzi, mantenendo così uno spazio per la libertà creativa. Questa esenzione dimostra un equilibrio tra la necessità di regolamentazione e il rispetto per l’espressione artistica e satirica.
La tutela del diritto d’autore
Il disegno di legge (DDL) italiano sull’intelligenza artificiale, presentato dall’onorevole Alessio Butti, rappresenta un’ambiziosa iniziativa legislativa che mira a indirizzare le complesse sfide poste dall’avanzamento delle tecnologie IA, in particolare quelle generative, nel rispetto dei diritti d’autore.
Il DDL include la protezione dei minori, la regolamentazione dei deepfake, la riconsiderazione del fair use, e la tutela delle opere create con l’ausilio dell’IA.
Tra le misure principali introdotte:
- Identificazione dei Contenuti Generati da IA: Viene imposto l’obbligo di marcare chiaramente i contenuti generati da sistemi di IA, attraverso etichette o filigrane che indicano la loro origine artificiale. Questa disposizione mira a garantire trasparenza e a prevenire la diffusione di informazioni ingannevoli.
- Regolamentazione Specifica per le Opere Create con IA: Il DDL introduce una normativa dedicata alle opere generate dall’IA, stabilendo criteri per l’identificazione e l’uso delle opere e altri materiali creati tramite intelligenza artificiale, con l’obiettivo di proteggere i diritti d’autore senza ostacolare l’innovazione.
- Monitoraggio e Vigilanza da Parte dell’AGCOM: L’Autorità per le garanzie nelle comunicazioni (AGCOM) avrà il compito di monitorare l’applicazione delle norme relative ai contenuti generati da IA, inclusa la verifica dell’etichettatura e la rimozione dei contenuti non conformi alle disposizioni legislative.
Sono due gli aspetti cruciali legati al diritto d’autore nell’era dell’IA.
- Identificazione dei contenuti generati da IA: Gli articoli 23 e 24 del DDL si concentrano sulla necessità di identificare chiaramente i contenuti testuali, fotografici, audiovisivi e radiofonici prodotti tramite sistemi di intelligenza artificiale. Questa disposizione mira a garantire che gli utenti siano consapevoli della natura artificiale dei contenuti che consumano, permettendo una distinzione chiara tra le creazioni umane e quelle generate da IA.
- Tutela del diritto d’autore per le opere create con IA: Il DDL cerca di stabilire un quadro normativo per la protezione delle opere generate con l’ausilio dell’IA, affrontando le sfide legate alla proprietà intellettuale di contenuti che non sono frutto esclusivamente dell’ingegno umano. Questo aspetto solleva questioni complesse riguardo alla definizione di autore e alla distribuzione dei diritti connessi alle opere prodotte in parte o interamente da algoritmi.
Queste disposizioni riflettono la volontà del legislatore di adattare il diritto d’autore alle nuove realtà tecnologiche, riconoscendo sia le potenzialità creative dell’IA sia la necessità di proteggere gli interessi degli autori umani e mantenere l’integrità del sistema di diritti d’autore. L’approccio proposto nel DDL sottolinea l’importanza di una regolamentazione che sia in grado di bilanciare l’innovazione tecnologica con la tutela dei diritti individuali e collettivi, in un contesto in rapida evoluzione.
ART. 23
(Identificazione dei contenuti testuali, fotografici, audiovisivi e radiofonici prodotti da sistemi di
intelligenza artificiale)
L’articolo 23 del disegno di legge italiano sull’intelligenza artificiale introduce modifiche al decreto legislativo 8 novembre 2021 n. 208, che riguardano la gestione e l’identificazione dei contenuti generati o modificati tramite sistemi di intelligenza artificiale. Ecco i punti salienti delle modifiche introdotte:
Modifiche al Decreto Legislativo
- Inserimento di IA nelle Tecniche di Produzione:
- Viene specificato che le tecniche utilizzate per la produzione di contenuti possono includere l’uso di sistemi di intelligenza artificiale.
Identificazione dei Contenuti Generati da IA:
- I contenuti informativi diffusi da fornitori di servizi audiovisivi e radiofonici che siano stati generati o modificati tramite IA devono essere chiaramente identificabili con un segno visibile, come una filigrana o una marcatura con l’acronimo “IA”. Questo vale anche per i contenuti audio, che devono essere identificabili attraverso annunci audio o altre tecnologie appropriate.
Posizionamento dell’Identificazione:
L’identificazione deve essere presente all’inizio e alla fine della trasmissione o del contenuto, nonché dopo ogni interruzione pubblicitaria.
Esclusione per Contenuti Creativi:
L’obbligo di inserimento del segno identificativo è escluso per i contenuti che fanno parte di opere o programmi manifestamente creativi, satirici, artistici o fittizi, a meno che non siano necessarie tutele per i diritti e le libertà di terzi.
Co-regolamentazione e Autoregolamentazione:
L’AGCOM promuove forme di co-regolamentazione e autoregolamentazione con i fornitori di servizi di media audiovisivi e radiofonici e con i fornitori di piattaforme per la condivisione di video, attraverso codici di condotta.
Protezione del Grande Pubblico:
Viene aggiunta una disposizione per proteggere il grande pubblico da contenuti informativi generati o alterati tramite IA che presentano come reali dati, fatti e informazioni che non lo sono.
L’articolo 42, al comma 1, con l’aggiunta della lettera “c-bis”, mira a proteggere il grande pubblico da contenuti informativi che, attraverso l’uso di sistemi di intelligenza artificiale, siano stati completamente generati o anche parzialmente modificati o alterati in modo da presentare come reali dati, fatti e informazioni che non lo sono. Questa disposizione è stata introdotta per garantire che i consumatori e i cittadini siano protetti dall’inganno potenziale causato da contenuti falsi o manipolati generati da IA, che possono essere particolarmente convincenti e difficili da distinguere dalla realtà.
Funzionalità di Dichiarazione per gli Utenti
Le piattaforme che consentono agli utenti di caricare contenuti video devono avere una funzionalità che permetta agli utenti di dichiarare se i contenuti contengono elementi generati, modificati o alterati tramite IA.
Sanzioni per Violazioni:
Vengono introdotte sanzioni specifiche per la violazione degli obblighi relativi all’identificazione dei contenuti generati da IA.
Il nuovo articolo 40 bis del decreto legislativo 8 novembre 2021 n. 208
L’articolo 40-bis stabilisce come i contenuti informativi diffusi da fornitori di servizi audiovisivi e radiofonici, che utilizzano sistemi di intelligenza artificiale, debbano essere gestiti in termini di trasparenza e identificazione.
Secondo l’articolo 40-bis, qualsiasi contenuto che sia stato completamente generato o anche parzialmente modificato o alterato tramite l’uso di sistemi di intelligenza artificiale, in modo tale da presentare dati, fatti e informazioni non reali come se lo fossero, deve essere chiaramente identificabile dagli utenti. Questo deve essere fatto attraverso l’inserimento di un segno identificativo, come una filigrana o una marcatura incorporata, che sia chiaramente visibile e riconoscibile, con l’acronimo “IA”. Nel caso di contenuti audio, l’identificazione può avvenire attraverso annunci audio o con tecnologie che permettano il riconoscimento.
L’identificazione deve essere presente all’inizio e alla fine della trasmissione o del contenuto, così come dopo ogni interruzione pubblicitaria. Tuttavia, l’inserimento del segno identificativo è escluso quando il contenuto fa parte di un’opera o di un programma che è manifestamente creativo, satirico, artistico o fittizio, a meno che non sia necessario per proteggere i diritti e le libertà di terzi.
Inoltre, l’articolo stabilisce che l’Autorità competente promuove forme di co-regolamentazione e di autoregolamentazione tramite codici di condotta sia con i fornitori di servizi di media audiovisivi e radiofonici sia con i fornitori di piattaforme per la condivisione di video, per le finalità di trasparenza e identificazione dei contenuti generati o manipolati da sistemi di intelligenza artificiale.
Le modifiche all’art. 42
- Modifica al Comma 1, Lettera c-bis:
- Questa aggiunta specifica che è necessario proteggere il grande pubblico da contenuti informativi che siano stati completamente generati o anche parzialmente modificati o alterati attraverso l’uso di sistemi di intelligenza artificiale, in modo da presentare come reali dati, fatti e informazioni che non lo sono. Questo implica un obbligo per i fornitori di servizi di identificare chiaramente tali contenuti, garantendo che il pubblico sia consapevole della natura artificiale o alterata delle informazioni ricevute.
- Modifica al Comma 7, Lettera c-bis:
- Questa aggiunta impone ai fornitori di piattaforme che ospitano contenuti video generati dagli utenti di implementare una funzionalità che permetta agli utenti di dichiarare se i contenuti caricati contengono elementi generati, modificati o alterati tramite l’uso di IA. Gli utenti devono fare questa dichiarazione se sono a conoscenza o se si può ragionevolmente presumere che siano a conoscenza della natura artificiale dei contenuti. Questo requisito mira a incrementare la trasparenza e a permettere ai consumatori di fare scelte informate riguardo ai contenuti che consumano.
Implicazioni delle Modifiche
Queste modifiche legislative rafforzano la responsabilità dei creatori e dei distributori di contenuti nel contesto dell’uso crescente dell’intelligenza artificiale per la creazione e la modifica di contenuti. L’obiettivo è prevenire la disinformazione e garantire che il pubblico possa facilmente distinguere tra contenuti genuini e quelli alterati da tecnologie AI. Inoltre, promuovono una maggiore consapevolezza e responsabilità tra gli utenti che caricano contenuti, contribuendo a un ambiente digitale più sicuro e trasparente.
ART. 24
(Tutela del diritto d’autore delle opere generate con l’ausilio dell’intelligenza artificiale)
L’articolo 24 del disegno di legge sull’intelligenza artificiale introduce modifiche significative alla legge 22 aprile 1941, n. 633, che regola il diritto d’autore in Italia, per adeguarla alle sfide poste dall’uso dell’intelligenza artificiale nella creazione di opere.
- Definizione di Opere dell’Ingegno: La modifica specifica che le “opere dell’ingegno” devono essere di origine “umana” e che possono essere protette dal diritto d’autore anche quando create con l’ausilio di strumenti di intelligenza artificiale, a condizione che il contributo umano sia “creativo, rilevante e dimostrabile”. Questo chiarimento è fondamentale per stabilire che, nonostante l’uso di IA, è necessario un apporto umano significativo per considerare un’opera protetta dal diritto d’autore.
La modifica proposta all’articolo 171, comma 1, della legge 22 aprile 1941, n. 633
La modifica proposta all’articolo 171, comma 1, della legge 22 aprile 1941, n. 633, che regola il diritto d’autore in Italia, introduce una nuova disposizione specifica per sanzionare l’uso improprio di opere o materiali protetti da diritto d’autore disponibili in rete o in banche dati.
La nuova lettera “a-ter” specifica che è reato riprodurre o estrarre testo o dati da tali opere o materiali in violazione degli articoli 70-ter e 70-quater, e che questa violazione può avvenire anche attraverso l’uso di sistemi di intelligenza artificiale.
Dettagli della Modifica:
- Articolo 171, Comma 1, Lettera a-ter:
- La nuova disposizione punisce chiunque riproduce o estrae testo o dati da opere o altri materiali protetti, disponibili online o in banche dati, senza rispettare le condizioni stabilite negli articoli 70-ter e 70-quater della stessa legge. Questi articoli regolano le eccezioni al diritto d’autore per consentire l’estrazione e la riproduzione di testi e dati a fini di ricerca scientifica o per altri scopi specifici, a condizione che tali attività non violino i diritti esclusivi dei titolari dei diritti d’autore.
Implicazioni delle Modifiche:
- Estensione della Protezione del Diritto d’Autore:
- Questa modifica estende la protezione del diritto d’autore alle nuove tecnologie, come l’intelligenza artificiale, che possono essere utilizzate per estrarre e riprodurre in modo automatizzato grandi quantità di dati e testi da opere protette.
- Rafforzamento delle Normative sul Diritto d’Autore:
- Introducendo specifiche sanzioni per la violazione delle norme che regolano l’estrazione e la riproduzione di testi e dati, la legge mira a rafforzare il rispetto dei diritti d’autore nell’era digitale, specialmente in contesti dove la tecnologia può facilitare l’accesso non autorizzato a contenuti protetti.
- Deterrente per l’Uso Improprio di IA:
- Stabilendo pene specifiche per l’uso improprio di sistemi di intelligenza artificiale nella riproduzione o estrazione di contenuti protetti, la legge cerca di prevenire abusi che potrebbero derivare dall’uso di tecnologie avanzate per violare i diritti d’autore.
Inserimento dell’Articolo 70-septies
- Riproduzione e Estrazione tramite IA: Viene introdotto un nuovo articolo, il 70-septies, che regola la riproduzione e l’estrazione di opere o altri materiali attraverso modelli e sistemi di intelligenza artificiale, anche generativa. Questa disposizione specifica che tali attività sono consentite in conformità con gli articoli 70-ter e 70-quater della stessa legge, che trattano rispettivamente delle limitazioni ai diritti esclusivi per motivi di citazione e di utilizzo per scopi di insegnamento o di ricerca scientifica.
Implicazioni delle Modifiche
Queste modifiche sono significative perché riconoscono e tentano di bilanciare l’innovazione tecnologica con la protezione dei diritti degli autori. L’introduzione del requisito di un contributo umano “creativo, rilevante e dimostrabile” per le opere create con l’ausilio di IA mira a garantire che il diritto d’autore non venga esteso a prodotti generati automaticamente da computer senza un significativo apporto creativo umano. Allo stesso tempo, l’articolo 70-septies fornisce una base legale per l’uso di opere esistenti nella formazione di modelli di IA, a condizione che tale uso rispetti le limitazioni esistenti volte a bilanciare gli interessi degli autori con quelli pubblici, come la ricerca e l’istruzione.In sintesi, queste modifiche alla legge sul diritto d’autore cercano di adattarsi alle nuove realtà tecnologiche garantendo al contempo che la protezione del diritto d’autore rimanga rilevante e efficace nell’era digitale e dell’intelligenza artificiale.
La disciplina dei deepfake
Il disegno di legge (DDL) sull’intelligenza artificiale in Italia rappresenta un’iniziativa legislativa significativa nel contesto della regolamentazione dei deepfake, una tecnologia che utilizza algoritmi di intelligenza artificiale per creare o modificare contenuti audiovisivi in modo tale che sembrino realistici, ma che in realtà sono falsi. Questi contenuti manipolati possono avere impatti profondi e talvolta dannosi, come la disinformazione, la manipolazione dell’opinione pubblica e la diffamazione.
Misure Legislative Contro i Deepfake
- Identificazione Obbligatoria: Il DDL impone ai media e alle piattaforme di condivisione video l’obbligo di marcare distintamente i contenuti generati tramite intelligenza artificiale. Questo si traduce nell’uso di un bollino “IA”, che deve essere facilmente visibile e riconoscibile dagli utenti, per assicurare che i contenuti generati da IA siano immediatamente identificabili.
- Sanzioni Penali: Vengono introdotte delle sanzioni penali specifiche per chi diffonde deepfake causando danni. Queste sanzioni possono includere pene detentive per chi utilizza deepfake in modo fraudolento, mirando a ingannare o danneggiare altri, con pene che possono estendersi fino a cinque anni di reclusione se i deepfake provocano un danno ingiusto.
- Aggravanti per l’Uso di IA in Reati: Il DDL prevede un’aggravante specifica per i reati che mirano a manipolare il processo elettorale tramite IA, così come per altri reati in cui l’uso di intelligenza artificiale aggrava le conseguenze del reato.
- Regolamentazione e Vigilanza da Parte dell’AGCOM: L’Autorità per le Garanzie nelle Comunicazioni (AGCOM) sarà incaricata di monitorare e regolamentare l’applicazione delle norme relative ai deepfake, inclusa la rimozione dei contenuti che non rispettano le disposizioni legislative.
Implicazioni e Obiettivi
Le misure introdotte mirano a mitigare i rischi associati ai deepfake, proteggendo i cittadini da manipolazioni e informazioni false che possono avere ripercussioni negative significative a livello personale e sociale. L’obiettivo è di promuovere un ambiente digitale più sicuro e trasparente, dove i consumatori possano distinguere chiaramente tra contenuti reali e quelli generati artificialmente, riducendo così il rischio di disinformazione e abusi.
La tutela dei minori e del pubblico in generale
La proposta di legge dell’onorevole Alessio Butti introduce misure specifiche per affrontare le sfide poste dall’uso dei deepfake e dall’applicazione dell’intelligenza artificiale, con l’obiettivo di creare un ambiente digitale sicuro e trasparente.
Tutela dei Minori
- Consentimento Informato: Il DDL stabilisce che i minori, dai quattordici anni in su, possono esprimere il proprio consenso al trattamento dei dati personali relativi all’uso di sistemi di intelligenza artificiale, purché siano adeguatamente informati.
- Protezione nell’Uso dei Sistemi di IA: Viene enfatizzata l’importanza di proteggere i minori da possibili manipolazioni attraverso l’uso dei sistemi di IA, garantendo così la salvaguardia della democrazia e della vita politica.
Tutela del Pubblico Generale
- Identificazione dei Contenuti Generati da IA: Il DDL richiede che tutti i contenuti significativamente alterati tramite IA siano chiaramente identificati, per prevenire la disinformazione.
- Regolamentazione dei Deepfake: Vengono introdotte norme specifiche per contrastare la diffusione di deepfake dannosi, con sanzioni penali per chi diffonde tali contenuti causando danni ingiusti.
- Sicurezza e Trasparenza nell’Uso dell’IA: Il DDL sottolinea la necessità di sviluppare e applicare i sistemi di IA in modo sicuro, affidabile e trasparente, con adeguate misure di cybersicurezza.
Estensione delle Misure di Tutela
- Inserimento di una Nuova Disposizione: L’articolo 42 del TUSMA viene emendato per includere la protezione del grande pubblico da contenuti manipolati tramite IA, mirando a prevenire la diffusione di informazioni ingannevoli.
- Obbligo per le Piattaforme di Condivisione: Viene introdotto un obbligo per le piattaforme di condivisione di permettere agli utenti di dichiarare la natura dei contenuti video caricati, promuovendo trasparenza e consapevolezza.
Considerazioni e Valutazioni Future
La proposta legislativa pone questioni cruciali riguardo alla responsabilità degli utenti nel dichiarare la natura dei contenuti pubblicati online. La decisione di mantenere questa dichiarazione come facoltativa sarà valutata ulteriormente, con l’obiettivo di bilanciare la libertà di espressione online con la necessità di proteggere il pubblico da potenziali abusi.
Il fair use nel DDL
che cosa è il fair use
Il “fair use” è una dottrina legale statunitense che permette l’uso limitato di materiale protetto da copyright senza dover ottenere il permesso dal titolare dei diritti. Questa dottrina è intesa a promuovere la libertà di espressione, particolarmente in attività come la critica, il commento, la ricerca, l’insegnamento e la divulgazione di notizie, consentendo l’uso di opere protette in circostanze specifiche che non violano i diritti del titolare del copyright[1][3][4][5].
Principi del Fair Use
Il fair use viene determinato attraverso l’analisi di quattro fattori principali:
- Scopo e Carattere dell’Uso:
- Si valuta se l’uso dell’opera è a scopo commerciale o educativo. Gli usi non commerciali e quelli che trasformano l’opera originale aggiungendo un nuovo significato o messaggio sono più propensi a essere considerati fair use[1][4][5].
- Natura dell’Opera Protetta:
- L’uso di opere basate prevalentemente sui fatti è più spesso considerato fair use rispetto all’uso di opere di fantasia. Questo perché le opere di fantasia godono di una protezione più forte sotto il diritto d’autore[1][3][4].
- Quantità e Sostanza dell’Opera Utilizzata:
- Meno materiale viene utilizzato, maggiore è la probabilità che l’uso sia considerato fair use. Tuttavia, anche l’uso di una piccola parte può essere critico se quella parte costituisce il “cuore” dell’opera[1][3][4].
- Effetto dell’Uso sul Mercato dell’Opera Originale:
- Se l’uso ha un impatto negativo sul mercato potenziale o sul valore dell’opera originale, è meno probabile che sia considerato fair use. Questo include situazioni in cui l’uso sostituisce l’opera originale sul mercato[1][3][4].
Applicazione del Fair Use
Negli Stati Uniti, il fair use è codificato nella sezione 107 del Copyright Act. I tribunali analizzano ogni caso specifico basandosi su questi principi per decidere se un uso rientra nella categoria del fair use. Non esiste una formula precisa, e le decisioni sono prese caso per caso.
In altri paesi, esistono concetti simili, come il “fair dealing” nel Regno Unito e in Canada, che funzionano in modo leggermente diverso e sono applicati secondo le leggi locali[5].
In sintesi, il fair use è una dottrina importante che equilibra i diritti dei titolari del copyright con la necessità di permettere certi usi socialmente utili delle opere protette, sostenendo così la libertà di espressione e l’innovazione culturale.
Nel disegno di legge Butti
La questione del “fair use” nel contesto del disegno di legge (DDL) sull’intelligenza artificiale in Italia è affrontata con attenzione, riflettendo la necessità di bilanciare la tutela del diritto d’autore con le opportunità offerte dalle nuove tecnologie di intelligenza artificiale. I
l DDL Butti, in particolare, esplora come il concetto di fair use possa essere applicato nell’era dell’IA, riconoscendo che le tecnologie di intelligenza artificiale richiedono l’accesso a grandi volumi di dati, inclusi contenuti protetti da diritto d’autore, per generare nuove opere.
Punti Chiave del Fair Use nel DDL
- Modifiche alla Legge sul Diritto d’Autore: Il DDL propone aggiornamenti alla legge esistente sul diritto d’autore, introducendo disposizioni che riconoscono l’uso di sistemi di IA. L’articolo 24 del DDL, in particolare, modifica la legge per affermare che le opere generate con l’aiuto dell’IA sono protette solo se vi è un contributo umano creativo significativo.
- Eccezioni e Limitazioni: Il DDL valorizza le eccezioni e limitazioni esistenti nel diritto d’autore, che consentono l’utilizzo di opere protette senza il consenso del titolare dei diritti in contesti specifici, come la ricerca scientifica o l’istruzione. Queste eccezioni sono estese per includere l’uso di IA, soprattutto nei contesti di ricerca e conservazione del patrimonio culturale.
- Implicazioni per la Ricerca e l’Innovazione: Il DDL mira a promuovere un utilizzo responsabile dell’IA nella ricerca e nello sviluppo, consentendo agli enti di ricerca e agli istituti culturali di utilizzare l’IA per l’analisi e l’estrazione di dati da opere legalmente accessibili. Ciò sottolinea l’importanza di mantenere un equilibrio tra l’innovazione e la protezione dei diritti d’autore.
L’articolo 24 del DDL sull’intelligenza artificiale, quindi, solleva questioni cruciali riguardo all’adeguatezza delle norme attuali sul diritto d’autore nell’era dell’intelligenza artificiale. La crescente richiesta di applicare le eccezioni e limitazioni, ispirate al modello del “fair use”, riflette la necessità di aggiornare le normative per accogliere le peculiarità dell’IA, equilibrando la protezione dei diritti degli autori con la promozione dell’innovazione e dell’accesso alla cultura. Questo dibattito sottolinea l’importanza di un approccio legislativo che sia evolutivo e capace di adattarsi alle nuove tecnologie, senza soffocare il potenziale creativo e innovativo che l’intelligenza artificiale può offrire.
La tutela delle opere create con l’AI
La proposta legislativa mira a definire i confini della tutela del diritto d’autore nell’era dell’IA, stabilendo che le opere create con l’ausilio di algoritmi di intelligenza artificiale possano essere protette dal diritto d’autore, a patto che vi sia un contributo umano nell’ideazione e realizzazione dell’opera che sia creativo, rilevante e dimostrabile.
Punti Fondamentali della Proposta
- Riconoscimento del Contributo Umano: Il DDL enfatizza l’importanza del contributo umano nel processo creativo mediato dall’IA, ponendo l’accento sulla necessità di un intervento umano significativo per la tutela delle opere. Questo approccio riflette le decisioni già prese da tribunali in paesi come gli Stati Uniti e il Regno Unito e si allinea alle indicazioni fornite dalla Corte di Cassazione italiana.
- Modifiche alla Legge sul Diritto d’Autore: La proposta legislativa introduce modifiche specifiche alla legge esistente sul diritto d’autore, riconoscendo le opere generate tramite intelligenza artificiale, purché vi sia un contributo umano significativo. In particolare, l’articolo 2 della legge 633/1941 viene aggiornato per includere le opere create con l’IA come opere protette, sottolineando l’importanza del contributo creativo umano.
- Protezione del Software e dei Big Data: La proposta riconosce i diritti sul software che costituisce opera autonoma dell’ingegno umano, essenziale per lo sviluppo degli algoritmi di IA. Inoltre, evidenzia il ruolo dei big data nell’alimentare questi sistemi, sottolineando la necessità di proteggere sia il software che le opere generate tramite IA.
Implicazioni e Considerazioni
Il DDL italiano sull’intelligenza artificiale cerca di bilanciare l’innovazione tecnologica con la protezione dei diritti degli autori, assicurando che l’uso dell’IA nel processo creativo non eroda i diritti tradizionalmente garantiti agli creatori umani. Questo approccio riflette una comprensione evoluta del ruolo dell’IA come strumento che, sebbene potente, rimane sotto la guida e il controllo creativo degli umani.
La discussione su questi temi continua ad essere vivace e divisiva, riflettendo la complessità di adattare i principi del diritto d’autore a un contesto tecnologico in rapida evoluzione.
La proposta legislativa rappresenta un tentativo significativo di aggiornare e adattare la legislazione sul diritto d’autore alle sfide poste dalle tecnologie emergenti, cercando di garantire che l’innovazione e la creatività possano prosperare in un ambiente equo e protetto.
la riproduzione e l’estrazione di opere o di altri materiali tutelati
Il disegno di legge (DDL) Butti e le sue proposte per regolamentare l’uso dell’intelligenza artificiale (IA) nel campo del diritto d’autore pongono l’accento su un aspetto cruciale: la riproduzione e l’estrazione di opere o di altri materiali tutelati attraverso l’uso di modelli o sistemi di IA, inclusa l’IA generativa. Introducendo l’articolo 70-septies nella Legge Autore, il DDL cerca di inserirsi nel contesto delle “libere utilizzazioni”, stabilendo limiti specifici per queste attività.
Contesto Normativo e Proposta
La proposta legislativa cerca di delineare chiaramente le condizioni sotto le quali la riproduzione e l’estrazione di opere protette attraverso l’IA sono permesse, facendo riferimento agli articoli 70-ter e 70-quater della Legge Autore. Questi articoli già prevedono eccezioni per l’uso di opere protette in ambiti come la ricerca scientifica e la tutela del patrimonio culturale, ma il DDL Butti evidenzia la necessità di distinguere tra gli organismi di ricerca e gli istituti di tutela del patrimonio culturale da un lato, e tutti gli altri utenti, inclusi quelli privati, dall’altro.
Dettagli dei Limiti alla Riproduzione e all’Estrazione di Opere
- Base Legale per la Riproduzione e l’Estrazione: L’introduzione dell’articolo 70-septies specifica le condizioni per la riproduzione e l’estrazione di opere tramite IA, in linea con gli articoli 70-ter e 70-quater.
- Distinzione tra Diversi Utenti: Importante è la distinzione tra l’uso di IA per la ricerca e la tutela del patrimonio e l’uso da parte di imprese a scopo di lucro, con una particolare attenzione alle implicazioni per queste ultime.
Considerazioni Critiche e Implicazioni
La distinzione tra l’uso di IA a scopo di lucro e l’uso per la ricerca o la tutela del patrimonio culturale è fondamentale per evitare abusi delle eccezioni al diritto d’autore, garantendo al contempo che l’innovazione tecnologica non comprometta i diritti degli autori.
Il legittimo accesso
Questo principio consente l’accesso e l’uso legale di opere e materiali per l’estrazione di testo e dati, a patto che i titolari dei diritti non abbiano espressamente riservato tali diritti.
Il Legittimo Accesso secondo il DDL Butti:
- Definizione e Applicazione: Il “legittimo accesso” richiede una relazione diretta e legittima tra il soggetto che raccoglie i dati e la fonte da cui questi dati sono tratti, escludendo quindi una relazione di estraneità. Ciò implica l’esistenza di un permesso o di una base legale che autorizzi l’accesso e l’uso di tali dati.
- Diritto di Opt-Out: Il DDL Butti incorpora il diritto di opt-out, consentendo ai titolari dei diritti di escludere l’uso dei loro materiali dall’estrazione o dalla riproduzione tramite IA, anche se questi sono pubblicamente disponibili online. Questo diritto è in linea con l’articolo 4, comma 3, della Direttiva UE/790/2019 sul “Digital Single Market”, che stabilisce che i titolari dei diritti possono riservarsi l’esclusiva sui loro materiali.
- Implicazioni per l’Uso di IA: Queste regolamentazioni sono cruciali per i modelli di IA, che dipendono dall’accesso a vasti set di dati per il loro addestramento. Il principio di legittimo accesso garantisce che l’uso di tali dati avvenga in conformità con le normative sul diritto d’autore, tutelando i diritti dei titolari e promuovendo al contempo l’innovazione tecnologica.
Il concetto di legittimo accesso, insieme al diritto di opt-out e alle disposizioni della Direttiva UE/790/2019, rappresenta uno strumento chiave per proteggere i diritti d’autore nell’era digitale, specialmente alla luce dello sviluppo delle tecnologie di IA.
Fornisce ai titolari dei diritti la capacità di controllare l’uso dei propri contenuti, assicurando che l’innovazione tecnologica non comprometta i diritti dei creatori e dei proprietari di contenuti. In questo modo, il DDL Butti cerca di stabilire un equilibrio tra la libera circolazione delle informazioni e la protezione dei diritti di proprietà intellettuale, affrontando una delle sfide chiave nel dibattito sul futuro del diritto d’autore nel mercato digitale unico europeo.
limite temporale per le estrazioni e riproduzioni effettuate da terzi
Questo limite è definito in base al tempo strettamente necessario per completare tali operazioni, come specificato dall’articolo 70-quater della Legge sul Diritto d’Autore (LDA). Tale disposizione solleva interrogativi sulla sua compatibilità con le esigenze di sfruttamento del materiale protetto indispensabile per testare e garantire il funzionamento efficace dei sistemi di IA.
Limiti Temporali e Sfide per l’IA:
- Restrizioni Temporali: L’articolo 70-quater LDA stabilisce che le attività di estrazione e riproduzione devono essere limitate al tempo necessario per tali operazioni, introducendo un quadro normativo che potrebbe non essere sempre allineato con le esigenze di addestramento e funzionamento dei modelli di IA.
- Articolo 70-sexies e Identificazione delle Opere: L’articolo 70-sexies, recentemente formulato, chiarisce che i modelli e i sistemi di IA devono adottare misure proporzionate allo scopo di identificare le opere e i materiali utilizzati, a condizione che il loro uso non sia stato espressamente riservato dai titolari dei diritti. Tuttavia, questa disposizione potrebbe essere vista come eccessivamente ampia rispetto alle intenzioni della normativa vigente in materia di estrazione e riproduzione di dati
I nuovi rischi legati all’utilizzo dell’AI
L’uso “incontrollato” di software di intelligenza artificiale (IA), in particolare quelli generativi, presenta significativi rischi legali e sociali.
Questi rischi includono frodi tramite sostituzione di persona, diffamazione aggravata, stalking, revenge porn, e altre condotte che sfruttano il confine sfumato tra creatività e uso non autorizzato di materiale protetto dal diritto d’autore.
La necessità di affrontare questi pericoli ha portato a discussioni “de jure condendo”, ovvero sull’elaborazione di potenziali quadri giurisprudenziali e normativi per contrastare tali fenomeni criminali.
Parallelamente, la proposta di legge italiana sull’IA mira a stabilire principi fondamentali per la ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e modelli di IA. L’articolo 1 del disegno di legge sottolinea l’importanza di promuovere un utilizzo dell’IA che sia corretto, trasparente e responsabile, ponendo l’essere umano al centro di questa tecnologia. Questo approccio antropocentrico è volto a massimizzare le opportunità offerte dall’IA, garantendo al contempo la vigilanza sui rischi economici e sociali e sull’impatto dell’IA sui diritti fondamentali delle persone.
Gli assi fondamentali della proposta di legge includono:
- La promozione di un libero mercato nell’ambito dell’IA;
- La libertà di ricerca tecnologica e lo sviluppo di sistemi e modelli di IA;
- Un utilizzo dell’IA che sia corretto, trasparente e responsabile;
- La centralità dell’essere umano nell’uso dell’IA;
- Il controllo dello Stato sui rischi economici e sociali e sull’impatto dell’IA sui diritti fondamentali della persona.
Questi principi riflettono l’intento del legislatore di navigare le complessità poste dall’avanzamento dell’IA, cercando di bilanciare l’innovazione tecnologica con la protezione dei cittadini e dei loro diritti fondamentali.
Le modifiche al codice penale
Le nuove disposizioni penali introdotte dall’articolo 25 del disegno di legge (DDL) italiano sull’intelligenza artificiale (IA) rappresentano un passo significativo verso l’aggiornamento del quadro legislativo per affrontare le sfide poste dall’uso delle tecnologie avanzate. Queste modifiche mirano a rafforzare il codice penale aggiungendo nuove circostanze aggravanti, integrando le norme esistenti, e introducendo una specifica fattispecie incriminatrice denominata “Illecita diffusione di contenuti generati o manipolati artificialmente”.
Una delle principali aggiunte è al primo comma dell’articolo 61 del codice penale (Circostanze aggravanti comuni), dove viene inserito il punto “11-decies”. Questo specifica che l’uso di sistemi di IA in modo che costituiscano un mezzo insidioso, ostacolino la difesa pubblica o privata, o aggravino le conseguenze del reato, costituisce una circostanza aggravante. La formulazione di questa disposizione mira a scoraggiare l’impiego dell’IA per fini illeciti, aumentando la consapevolezza sulle potenziali minacce che tali tecnologie possono rappresentare per la sicurezza e l’ordine pubblico.
Per contrastare specificamente le frodi online, il DDL introduce un’aggravante particolare all’articolo 494 del codice penale (sostituzione di persona), stabilendo che l’uso di sistemi di IA per commettere il reato comporta una pena detentiva da uno a tre anni. Analogamente, questa aggravante è applicata anche all’articolo 501, che riguarda il rialzo e il ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio, per proteggere l’economia pubblica da notizie false, esagerate o tendenziose generate o diffuse tramite IA.
Queste modifiche legislative dimostrano un chiaro intento di adeguare il sistema penale italiano alle nuove sfide tecnologiche, cercando di bilanciare le enormi potenzialità dell’IA con la necessità di prevenire e sanzionare gli abusi che ne possono derivare. L’obiettivo è garantire che l’evoluzione tecnologica proceda in modo sicuro e responsabile, senza compromettere i diritti e la sicurezza dei cittadini.
ART. 25
(Modifiche al codice penale e ad altre disposizioni penali)
Il disegno di legge (DDL) Butti introduce modifiche al codice penale italiano
Una delle principali aggiunte è al primo comma dell’articolo 61 del codice penale (Circostanze aggravanti comuni), dove viene inserito il punto “11-decies”.
Questo specifica che l’uso di sistemi di IA in modo che costituiscano un mezzo insidioso, ostacolino la difesa pubblica o privata, o aggravino le conseguenze del reato, costituisce una circostanza aggravante.
La formulazione di questa disposizione mira a scoraggiare l’impiego dell’IA per fini illeciti, aumentando la consapevolezza sulle potenziali minacce che tali tecnologie possono rappresentare per la sicurezza e l’ordine pubblico.
Modifiche Apportate all’Articolo 61 del Codice Penale:
in particolare all’articolo 61 che elenca le circostanze aggravanti comuni. La modifica proposta aggiunge una nuova aggravante specifica per i reati commessi mediante l’impiego di sistemi di intelligenza artificiale
- Nuova Aggravante (11-decies):
- Viene introdotta una nuova circostanza aggravante, indicata come “11-decies”, che si applica quando il reato è commesso mediante l’impiego di sistemi di intelligenza artificiale. Questa aggravante è specificata per i casi in cui l’IA, per la sua natura o per le modalità di utilizzo, abbia costituito un mezzo insidioso, abbia ostacolato la pubblica o la privata difesa, o abbia aggravato le conseguenze del reato[1].
Implicazioni delle Modifiche:
- Riconoscimento del Potenziale Insidioso dell’IA:
- La legge riconosce che l’IA può essere utilizzata in modo tale da rendere più insidioso il compimento di un reato, ad esempio attraverso la creazione di deepfake o altri contenuti ingannevoli che possono essere difficili da riconoscere e contrastare.
- Ostacolo alla Difesa:
- L’uso di IA può complicare la difesa sia pubblica che privata contro il reato, ad esempio rendendo più difficile identificare l’autore di un’azione illecita o verificare l’autenticità di un’evidenza.
- Aggravamento delle Conseguenze:
- L’impiego di sistemi di IA può anche aggravare le conseguenze di un reato, potenzialmente causando danni più estesi o profondi rispetto a quelli che sarebbero stati possibili senza l’uso di tali tecnologie.
Art. 494 c.p. sostituzione di persona
. Questa modifica legislativa stabilisce che se il reato è commesso mediante l’impiego di sistemi di intelligenza artificiale, la pena applicabile è della reclusione da uno a tre anni[2].
Dettagli e Implicazioni della Modifica:
- Aggravante Specifica per l’Uso di IA:
- L’introduzione di questa specifica aggravante riconosce il potenziale insidioso e la capacità di manipolazione avanzata che l’intelligenza artificiale può avere nei crimini di sostituzione di persona. L’IA può facilitare la creazione di identità false o la manipolazione di dati esistenti in modo molto più sofisticato e su larga scala rispetto ai metodi tradizionali.
- Focus sulle Tecnologie Emergenti:
- Questa modifica riconosce che l’IA può essere utilizzata per commettere reati in modi nuovi e potenzialmente più dannosi, richiedendo quindi sanzioni più severe.
- Protezione della Fede Pubblica:
- Il reato di sostituzione di persona protegge la fede pubblica e l’integrità delle identità personali. L’uso di IA in questo contesto può minare gravemente queste protezioni, giustificando l’introduzione di pene più severe per scoraggiare tali abusi e proteggere i cittadini.
Art. 501 Rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio”
L’aggiunta specificata all’articolo 501, terzo comma, del codice penale italiano introduce una nuova aggravante per il reato di rialzo e ribasso fraudolento di prezzi. La modifica legislativa stabilisce che se il reato è commesso mediante l’impiego di sistemi di intelligenza artificiale, si applica l’aggravante “2-bis”. Questo significa che l’uso di IA per influenzare il mercato in modo fraudolento, ad esempio pubblicando o diffondendo notizie false o adoperando altri artifici che causano variazioni di prezzo, comporta una pena aggravata
Dettagli e Implicazioni della Modifica:
- Aggravante Specifica per l’Uso di IA:
- L’introduzione di questa specifica aggravante riconosce il potenziale impatto che l’intelligenza artificiale può avere nel manipolare il mercato. L’IA può essere utilizzata per generare o diffondere rapidamente informazioni false o ingannevoli che possono influenzare il prezzo delle merci o dei valori, causando un danno significativo all’economia.
- Protezione dell’Economia Pubblica:
- Questa modifica legislativa mira a proteggere l’economia pubblica dalle distorsioni causate dall’uso improprio di tecnologie avanzate come l’IA, che possono essere particolarmente efficaci nel creare false percezioni di mercato.
- Risposta alle Nuove Tecnologie:
- La modifica all’articolo 501 del codice penale è una risposta alle sfide poste dalle nuove tecnologie e riflette la necessità di aggiornare la legislazione per affrontare i nuovi metodi di commissione di reati economici.
«Art. 612-quater
Illecita diffusione di contenuti generati o manipolati con sistemi di intelligenza artificiale
Secondo il DDL, chiunque causi un danno ingiusto a terzi mediante l’invio, la consegna, la cessione, la pubblicazione o la diffusione di immagini, video, voci o suoni che siano in tutto o in parte falsi, generati o alterati mediante l’impiego di sistemi di intelligenza artificiale, e che siano atti a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni
Questa disposizione mira a contrastare l’uso improprio dell’intelligenza artificiale per creare e diffondere contenuti falsi che possono danneggiare individui o l’ordine pubblico.
L’obiettivo è di prevenire e sanzionare le manipolazioni digitali che possono avere gravi ripercussioni nella vita reale delle persone, come la diffamazione, l’inganno e altre forme di danno morale e materiale.
La norma è stata introdotta come risposta alle crescenti preoccupazioni relative ai deepfake e ad altre tecnologie di manipolazione digitale che stanno diventando sempre più sofisticate e accessibili, aumentando il rischio di abusi.
La norma tuttavia solleva questioni interpretative e rischi legati alla natura “aperta” della norma. La questione centrale riguarda il criterio con cui valutare la genuinità dei contenuti: se debba essere basata sull’intrinseca verosimiglianza all’originale, un “limite interno”, o se debba essere considerata in relazione alla capacità critica del ricevente, un “limite esterno”.
Il rischio principale è quello di affidare al giudice una discrezionalità eccessiva nella valutazione della rilevanza penale di una condotta, non tanto in virtù del fatto reato in sé, ma piuttosto in base alla percezione pubblica in un determinato momento storico o all’evoluzione tecnologica. Questo potrebbe portare a un’applicazione della legge potenzialmente variabile e imprevedibile, potendo così entrare in contrasto con i principi di determinatezza della legge penale stabiliti dalla Corte Costituzionale.
Di fronte a queste criticità, il processo legislativo dovrebbe prendere in considerazione questi dubbi interpretativi e valutare attentamente gli aspetti problematici emersi.
Nel frattempo, per chi intende esplorare la creazione di contenuti utilizzando l’intelligenza artificiale generativa, soprattutto quando si tratta di utilizzare immagini di terzi, è raccomandabile l’adozione di un approccio cauto. Un suggerimento pratico potrebbe essere l’inserimento di un disclaimer che informi l’utente della natura “deepfake” del contenuto, contribuendo così a mitigare potenziali responsabilità legali e a chiarire l’intento dietro la creazione del contenuto stesso.
640 (Truffa).
La modifica proposta all’articolo 640 del codice penale italiano introduce una nuova circostanza aggravante specifica per i reati di truffa commessi mediante l’impiego di sistemi di intelligenza artificiale.
Questa aggiunta è indicata come “2-ter” e segue la modifica del segno di interpunzione dopo il numero “2-bis” da un punto a un punto e virgola, permettendo l’inserimento della nuova aggravante.
Dettagli della Modifica:
- Articolo 640, Secondo Comma, Numero 2-ter:
- La nuova disposizione stabilisce che se il reato di truffa è commesso mediante l’impiego di sistemi di intelligenza artificiale, ciò costituisce una circostanza aggravante. Questo riconosce il potenziale di tali tecnologie di aumentare la portata o l’efficacia del reato, rendendo più insidiose le truffe e potenzialmente influenzando un numero maggiore di vittime o causando danni maggiori.
Articolo 640 ter Codice Penale Frode informatica
La modifica proposta all’articolo 640-ter, terzo comma, del codice penale italiano, come indicato nella domanda, introduce una nuova circostanza aggravante per il reato di frode informatica. La modifica specifica che se il reato è commesso “mediante l’impiego di sistemi di intelligenza artificiale”, si applica l’aggravante
Dettagli della Modifica:
- Articolo 640-ter, Terzo Comma:
- La nuova disposizione stabilisce che l’uso di sistemi di intelligenza artificiale per commettere frode informatica costituisce una circostanza aggravante. Questo riconosce il potenziale di tali tecnologie di aumentare la portata o l’efficacia del reato, rendendo più insidiose le frodi e potenzialmente influenzando un numero maggiore di vittime o causando danni maggiori.
Articolo 648 bis Codice Penale Riciclaggio
La modifica proposta all’articolo 648-bis, terzo comma, del codice penale italiano introduce una nuova circostanza aggravante specifica per il reato di riciclaggio. La modifica legislativa stabilisce che se il reato di riciclaggio è commesso “mediante l’impiego di sistemi di intelligenza artificiale”, si applica l’aggravante
Dettagli della Modifica:
- Articolo 648-bis, Terzo Comma:
- La nuova disposizione stabilisce che l’uso di sistemi di intelligenza artificiale per commettere il reato di riciclaggio costituisce una circostanza aggravante. Questo riconosce il potenziale di tali tecnologie di aumentare la portata o l’efficacia del reato, rendendo più insidiose le operazioni di riciclaggio e potenzialmente influenzando un numero maggiore di vittime o causando danni maggiori.
Articolo 648 ter Codice Penale Impiego di denaro, beni o utilità di provenienza illecita
La modifica proposta agli articoli 648-ter e 648-ter.1 del codice penale italiano introduce l’uso di sistemi di intelligenza artificiale come una nuova circostanza aggravante nei reati di riciclaggio e autoriciclaggio. Queste aggiunte specificano che, quando tali reati sono commessi mediante l’impiego di sistemi di intelligenza artificiale, si applica un’aggravante.
Articolo 648-ter (Riciclaggio)
- Terzo Comma:
- La modifica proposta aggiunge che la pena è aumentata quando il reato di riciclaggio è commesso “mediante l’impiego di sistemi di intelligenza artificiale” oltre che nell’esercizio di un’attività professionale[2][5][11].
Articolo 648-ter.1 (Autoriciclaggio)
- Sesto Comma:
- Analogamente, la modifica proposta aggiunge che la pena è aumentata quando il reato di autoriciclaggio è commesso “mediante l’impiego di sistemi di intelligenza artificiale” oltre che nell’esercizio di un’attività bancaria, finanziaria o di altra attività professionale[1][4].
Parallelamente, il DDL Butti affronta la tutela penale delle violazioni legate all’IA, suggerendo un approccio che potrebbe portare a una depenalizzazione delle violazioni di minore entità. La scelta di riferirsi all’articolo 171 della Legge 633/1941, anziché all’articolo 171-ter, indica una preferenza per un trattamento più lieve di certe violazioni, potenzialmente per riconoscere le sfide uniche poste dall’integrazione dell’IA in vari settori. Questo approccio solleva questioni importanti sulla valutazione della gravità delle lesioni agli interessi tutelati e sulla coerenza di tale scelta con l’obiettivo di proteggere efficacemente i diritti d’autore e altri interessi legali.
La modifica all’ Aggiotaggio
La modifica proposta all’articolo 2637, primo comma, del codice civile italiano introduce una nuova circostanza aggravante specifica per il reato di aggiotaggio societario o bancario. La modifica legislativa stabilisce che se il reato è commesso “mediante l’impiego di sistemi di intelligenza artificiale”, la pena applicabile è della reclusione da due a sette anni
Dettagli della Modifica:
- Articolo 2637, Primo Comma:
- La nuova disposizione stabilisce che l’uso di sistemi di intelligenza artificiale per commettere il reato di aggiotaggio societario o bancario costituisce una circostanza aggravante. Questo riconosce il potenziale di tali tecnologie di aumentare la portata o l’efficacia del reato, rendendo più insidiose le operazioni di manipolazione del mercato e potenzialmente influenzando un numero maggiore di vittime o causando danni maggiori.
La modifica al TUF
La modifica proposta all’articolo 185, comma 1, del decreto legislativo 24 febbraio 1998, n. 58, che regola il Testo Unico delle disposizioni in materia di intermediazione finanziaria (TUF), introduce una nuova circostanza aggravante specifica per i reati finanziari commessi mediante l’impiego di sistemi di intelligenza artificiale.
Questa aggiunta specifica che, se i fatti relativi ai reati finanziari sono commessi utilizzando l’IA, la pena prevista per tali reati è aumentata.
Dettagli della Modifica:
- Articolo 185, Comma 1:
- La disposizione esistente nell’articolo 185 punisce vari reati finanziari, come la manipolazione del mercato e l’insider trading. L’aggiunta proposta specifica che, se questi reati sono commessi mediante l’uso di sistemi di intelligenza artificiale, la pena sarà aumentata. Questo riconosce il potenziale di tali tecnologie di aumentare la portata o l’efficacia del reato, rendendo più insidiose le operazioni illegali e potenzialmente influenzando un numero maggiore di vittime o causando danni maggiori.
La sanità
Il Disegno di Legge (DDL) italiano sull’intelligenza artificiale (IA) segna un punto di svolta nell’approccio alla digitalizzazione del settore sanitario, promuovendo l’uso responsabile, etico e trasparente di questa tecnologia avanzata.
Attraverso una serie di principi guida e innovazioni, il DDL si propone di migliorare l’efficienza e l’efficacia delle cure, rispettando al contempo i diritti e le esigenze dei pazienti.
Principi fondamentali come la non discriminazione e l’accesso equo sono posti alla base dell’impiego dell’IA nella sanità, assicurando che tutti i pazienti, indipendentemente dalle loro condizioni personali, possano beneficiare delle opportunità offerte dalla tecnologia senza pregiudizi.
L’importanza dell’informazione ai pazienti è enfatizzata per garantire che siano pienamente consapevoli di come l’IA influenzi il loro percorso di cura e la gestione della loro salute.
Il supporto alla disabilità evidenzia il potenziale dell’IA di offrire soluzioni personalizzate che migliorano la qualità della vita, facilitando l’accesso alle cure. La centralità della decisione medica finale sottolinea che, nonostante il supporto decisionale fornito dall’IA, la responsabilità ultima delle scelte terapeutiche rimane nelle mani dei professionisti sanitari, preservando l’importanza del giudizio clinico umano.
La ricerca e la sperimentazione nell’ambito dell’IA sono riconosciute come di rilevante interesse pubblico, con un focus particolare sulle applicazioni terapeutiche e farmacologiche.
La creazione di una piattaforma di intelligenza artificiale per il supporto alle finalità di cura, in particolare per l’assistenza territoriale, mira a integrare l’IA nel sistema sanitario nazionale, migliorando l’accessibilità e la personalizzazione delle cure.
Infine, il DDL pone un’enfasi significativa sulla cybersicurezza e sulla protezione dei dati personali, adottando misure specifiche per garantire la sicurezza e l’integrità dei sistemi di IA e dei dati elaborati.
ART. 7
(Uso dell’intelligenza artificiale in ambito sanitario e di disabilità)
L’articolo 7 del disegno di legge (DDL) sull’intelligenza artificiale in Italia disciplina l’uso dell’intelligenza artificiale nel settore sanitario e per le persone con disabilità.
Questo articolo è fondamentale per garantire che l’impiego dell’IA in questi ambiti sia condotto in modo etico, responsabile e non discriminatorio. Ecco i principi chiave e le disposizioni contenute nell’articolo 7, come riportato nelle fonti:
- Non Discriminazione e Accesso Equo:
- L’articolo 7 stabilisce che l’introduzione di sistemi di intelligenza artificiale nel sistema sanitario non può selezionare e condizionare l’accesso alle prestazioni sanitarie con criteri discriminatori
- Questo principio è essenziale per garantire che tutti gli individui, indipendentemente dalle loro condizioni fisiche o mentali, abbiano accesso equo ai benefici portati dall’IA in sanità.
- Miglioramento del Sistema Sanitario:
- Viene sottolineato che l’utilizzo di sistemi di IA dovrebbe contribuire al miglioramento del sistema sanitario e alla prevenzione e cura delle malattie, rispettando i diritti, le libertà e gli interessi delle persone, inclusa la protezione dei dati personali.
- Informazione e Trasparenza:
- È prioritario il diritto dell’interessato ad essere informato sull’utilizzo di tecnologie di intelligenza artificiale. Questo assicura che i pazienti siano pienamente consapevoli di come l’IA viene utilizzata nel loro trattamento e nella gestione della loro salute
- Decisione Medica Finale:
- L’uso dei sistemi di IA in ambito sanitario deve lasciare impregiudicata la spettanza della decisione alla professione medica.
- Questo significa che, nonostante l’assistenza dell’IA, la decisione finale su trattamenti e cure rimane nelle mani dei professionisti sanitari[1].
- Affidabilità e Verifica dei Sistemi di IA:
- I sistemi di intelligenza artificiale utilizzati in ambito sanitario e i relativi dati impiegati devono essere affidabili e periodicamente verificati e aggiornati al fine di minimizzare il rischio di errori
Il Disegno di Legge (DDL) italiano sull’intelligenza artificiale (IA) in sanità evidenzia l’importanza cruciale dei dati nel settore medico.
l’IA può trasformare la gestione della salute, migliorando l’efficienza e l’efficacia delle cure.
Un aspetto fondamentale messo in luce è la necessità di trattare i dati sanitari non solo come singole informazioni o record, ma come narrazioni complesse che possono essere integrate e analizzate per fornire insight preziosi.
Questo approccio consente ai professionisti sanitari di utilizzare l’IA per prendere decisioni più informate, personalizzare i trattamenti e migliorare i risultati per i pazienti.
Il DDL italiano riconosce l’importanza di gestire e interpretare questi dati in modo responsabile e informato, mettendo in evidenza come l’IA nella sanità non sia soltanto un’opzione utile, ma diventi indispensabile per affrontare le sfide del futuro.
L’attenzione si concentra sulla capacità dell’IA di integrare e analizzare grandi volumi di dati sanitari, trasformandoli in conoscenza applicabile che può guidare la diagnosi, il trattamento e la prevenzione delle malattie.
La visione espressa nel DDL e negli studi correlati riflette una comprensione profonda del potenziale dell’IA di rivoluzionare la sanità.
Tuttavia, è evidente anche la consapevolezza che per sfruttare appieno questo potenziale è necessaria una regolamentazione attenta che garantisca l’uso etico e sicuro della tecnologia, proteggendo i dati dei pazienti e assicurando che le innovazioni siano accessibili e benefiche per tutti.
I sei principi chiave dell’intelligenza artificiale (IA) nella sanità
I sei principi chiave dell’intelligenza artificiale (IA) nella sanità, come delineati nel Disegno di Legge (DDL) italiano, stabiliscono una base per l’integrazione responsabile dell’IA nel settore sanitario, enfatizzando l’importanza di un approccio che rispetti i diritti individuali e promuova l’equità. Questi principi sono:
- Miglioramento del Sistema Sanitario: L’IA dovrebbe contribuire al miglioramento del sistema sanitario, promuovendo la prevenzione e la cura delle malattie nel rispetto dei diritti dei pazienti, inclusa la protezione dei dati personali. Questo principio evidenzia il potenziale dell’IA di essere un catalizzatore per un sistema sanitario più efficace ed efficiente.
- Accesso Non Discriminatorio: L’introduzione dell’IA nel sistema sanitario non deve creare barriere di accesso basate su criteri discriminatori, garantendo equità e giustizia nell’accesso alle cure e prevenendo l’esclusione di gruppi vulnerabili o marginalizzati.
- Diritto all’Informazione: I pazienti hanno il diritto di essere informati sull’uso dell’IA nelle loro cure, compresi i vantaggi diagnostici e terapeutici e la logica decisionale degli algoritmi. Questo principio promuove la trasparenza e consente ai pazienti di prendere decisioni informate riguardo alla loro salute.
- IA e Disabilità: Viene enfatizzato lo sviluppo di sistemi di IA che migliorano la vita delle persone con disabilità, facilitando l’accessibilità, l’autonomia e l’inclusione sociale. Questo principio riflette il riconoscimento dell’IA come strumento per abbattere le barriere e promuovere l’uguaglianza.
- Supporto Decisionale Medico: L’IA è vista come un supporto ai processi di prevenzione, diagnosi e scelta terapeutica, ma la decisione finale rimane prerogativa della professione medica. Questo assicura che l’umanità e l’esperienza clinica rimangano al centro dell’assistenza sanitaria.
- Affidabilità dei Dati: I dati utilizzati dai sistemi di IA in sanità devono essere affidabili e soggetti a verifiche e aggiornamenti periodici per minimizzare il rischio di errori. Questo principio sottolinea l’importanza della qualità dei dati nella fornitura di cure basate sull’IA.
In aggiunta, il DDL pone attenzione sulla ricerca e sperimentazione nell’IA sanitaria e sull’importanza del Fascicolo Sanitario Elettronico, riconoscendo il bisogno di muoversi rapidamente per sfruttare le opportunità offerte dall’IA senza attendere l’implementazione completa dell’AI Act europeo. Questo approccio riflette l’urgenza di adattarsi alle innovazioni tecnologiche per migliorare l’assistenza sanitaria, tenendo conto delle implicazioni etiche e della necessità di una collaborazione stretta tra professionisti sanitari e sviluppatori di tecnologia.
La ricerca e sperimentazione scientifica
La ricerca e sperimentazione scientifica nel campo dell’intelligenza artificiale (IA) rappresenta un’area di grande potenziale che sta già iniziando a rivoluzionare diversi settori, inclusa la sanità. L’integrazione dell’IA nella ricerca scientifica sta accelerando la scoperta e l’applicazione di nuove conoscenze, dai miglioramenti nella classificazione e raccolta dei dati alla facilitazione della literature-based discovery, che consente di identificare nuove aree di ricerca e ipotizzare nuove teorie attraverso l’analisi di ampi corpus di letteratura scientifica.
In parallelo, il Disegno di Legge (DDL) italiano sull’IA in sanità, riconoscendo l’importanza cruciale di questa tecnologia, mette in evidenza la necessità di un approccio etico e responsabile alla gestione dei dati utilizzati nella ricerca. La distinzione tra anonimizzazione e pseudonimizzazione dei dati emerge come un punto critico che necessita di ulteriori chiarimenti. Mentre l’anonimizzazione elimina qualsiasi riferimento personale rendendo i dati completamente avulsi dal contesto individuale, la pseudonimizzazione permette l’utilizzo dei dati in contesti personali senza rivelare l’identità dell’individuo, mantenendo la privacy e consentendo al contempo studi dettagliati sulla personalizzazione delle cure.
Questi sviluppi sottolineano l’importanza di garantire che l’innovazione nell’uso dell’IA in sanità proceda in maniera etica e conforme alla protezione dei dati personali. È essenziale una trattazione più approfondita delle metodologie di gestione dei dati e delle relative regolamentazioni per rafforzare la fiducia nel processo di ricerca e assicurare che i benefici dell’IA siano realizzati in modo responsabile.
L’articolo 8 del DDL italiano rappresenta quindi un passo importante verso l’incoraggiamento della ricerca e sperimentazione nell’IA sanitaria, enfatizzando la necessità di un’attenzione continua alle implicazioni etiche, alla formazione adeguata dei ricercatori e alla protezione dei dati personali.
La ricerca e sperimentazione nell’IA stanno portando a cambiamenti significativi nel modo in cui la scienza viene praticata, offrendo nuove opportunità per accelerare le scoperte e migliorare l’efficacia della ricerca, richiedendo al contempo un impegno costante per navigare le sfide etiche e di privacy che accompagnano queste innovazioni.
. Ecco alcuni aspetti chiave dell’articolo 8 come riportato nelle fonti:
- Promozione della Ricerca e Sperimentazione:
- L’articolo 8 stabilisce che la ricerca e la sperimentazione scientifica nel campo dell’intelligenza artificiale per finalità terapeutiche e farmacologiche sono di rilevante interesse pubblico
- Questo riconoscimento è cruciale per allocare risorse e attenzione a quest’area, incentivando gli investimenti e la collaborazione tra enti pubblici e privati.
- Trattamento dei Dati:
- Viene sottolineata l’importanza del trattamento dei dati, anche personali, nel rispetto della privacy e della sicurezza. I dati utilizzati nella ricerca devono essere gestiti in modo etico e conforme alle normative sulla protezione dei dati
- Questo include l’anonimizzazione e la pseudonimizzazione dei dati per proteggere l’identità dei soggetti coinvolti.
- Sviluppo di Sistemi di IA Affidabili:
- L’articolo 8 enfatizza la necessità di sviluppare sistemi di intelligenza artificiale che siano affidabili e sicuri. Questo implica che i sistemi di IA utilizzati in ambito sanitario devono essere periodicamente verificati e aggiornati per assicurare la loro precisione e minimizzare il rischio di errori
- Supporto alla Decisione Medica:
- Sebbene l’IA possa fornire supporto significativo nella diagnosi e nel trattamento, l’articolo 8 ribadisce che la decisione finale spetta sempre al personale medico qualificato. L’IA serve come strumento di supporto, non come sostituto del giudizio medico umano
- Inclusione e Non Discriminazione:
- L’articolo 8 promuove l’uso dell’IA in modo che non discrimini o limiti l’accesso alle cure. È essenziale che i sistemi di IA siano progettati per essere inclusivi e migliorare l’accesso alle cure per tutti i pazienti, indipendentemente dalle loro condizioni personali
ART. 9 Disposizioni in materia di fascicolo sanitario elettronico, sistemi di sorveglianza nel settore
sanitario e governo della sanità digitale
Il Fascicolo Sanitario Elettronico (FSE) e l’intelligenza artificiale (IA) rappresentano due pilastri fondamentali per la trasformazione digitale nel settore sanitario. L’innovazione del FSE facilita la gestione e l’accesso ai dati dei pazienti in modo efficiente e sicuro, mentre l’integrazione dell’IA promette di rivoluzionare la pratica medica, migliorando l’analisi e l’interpretazione dei dati clinici.
Questo non solo accelera il processo di valutazione dei dati dei pazienti, ma può anche migliorare la qualità delle diagnosi e delle decisioni terapeutiche.
L’articolo 9 del Disegno di Legge (DDL) italiano sull’IA in sanità è un passo avanti significativo in questa direzione, introducendo disposizioni specifiche per l’uso del FSE.
Propone la creazione di una piattaforma di IA dedicata a supportare i professionisti sanitari nella presa in carico della popolazione assistita, offrendo suggerimenti non vincolanti nella pratica clinica quotidiana e facilitando l’accesso degli utenti ai servizi sanitari delle Case di Comunità.
Questa piattaforma mira a colmare i vuoti legislativi e ad accelerare l’adozione di soluzioni tecnologiche avanzate nel sistema sanitario.
In particolare, viene istituita una piattaforma di IA dedicata al supporto delle finalità di cura, soprattutto per quanto riguarda l’assistenza territoriale. La progettazione, realizzazione, messa in servizio e gestione di questa piattaforma sono affidate all’Agenzia nazionale per i servizi sanitari regionali (AGENAS), designata come Agenzia nazionale per la sanità digitale.
La piattaforma fornirà servizi di supporto ai professionisti sanitari per la gestione della popolazione assistita, ai medici per la pratica clinica quotidiana attraverso suggerimenti non vincolanti e agli utenti per l’accesso ai servizi sanitari delle Case di Comunità.
La piattaforma sarà alimentata dai dati strettamente necessari all’erogazione dei servizi, trasmessi dai titolari del trattamento dei dati.
AGENAS avrà la responsabilità del trattamento dei dati raccolti e generati all’interno della piattaforma.
Prima dell’attuazione, sono richiesti i pareri del Ministero della Salute, del Garante per la protezione dei dati personali e dell’Agenzia per la Cybersicurezza nazionale. AGENAS, valutando l’impatto del trattamento dei dati, dovrà specificare i tipi di dati trattati, le operazioni eseguite sulla piattaforma e le misure tecniche e organizzative adottate per garantire un livello di sicurezza adeguato al rischio e per proteggere i diritti e gli interessi degli individui, in linea con il Regolamento UE 2016/679 (GDPR).
Ecco i dettagli principali di queste disposizioni come riportato nelle fonti:
- Fascicolo Sanitario Elettronico (FSE):
- L’articolo 9 stabilisce che per il supporto alle finalità di cura, e in particolare per l’assistenza territoriale, è istituita una piattaforma di intelligenza artificiale. Questa piattaforma eroga servizi di supporto ai professionisti sanitari per la presa in carico della popolazione assistita, ai medici nella pratica clinica quotidiana con suggerimenti non vincolanti, e agli utenti per l’accesso ai servizi sanitari delle Case di Comunità
- Gestione dei Dati:
- La piattaforma sarà alimentata con i dati strettamente necessari per l’erogazione dei servizi sopra indicati, trasmessi dai relativi titolari del trattamento. L’Agenzia nazionale per i servizi sanitari regionali (Agenas), in qualità di Agenzia nazionale per la sanità digitale, sarà titolare del trattamento dei dati raccolti e generati all’interno della piattaforma
- Sicurezza e Privacy:
- Prima dell’implementazione, sono richiesti i pareri del Ministero della salute e del Garante per la protezione dei dati personali e dell’Agenzia per la Cybersicurezza nazionale. L’Agenas, con proprio provvedimento, valutato l’impatto del trattamento, dovrà specificare i tipi di dati trattati e le operazioni eseguite all’interno della piattaforma, nonché le misure tecniche e organizzative per garantire un livello di sicurezza adeguato al rischio e per tutelare i diritti fondamentali e gli interessi dell’interessato
- Regolamentazione e Supervisione:
- Le disposizioni di questo articolo sono in coerenza con le normative europee, in particolare il Regolamento UE 2016/679, noto come GDPR, che regola la protezione delle persone fisiche con riguardo al trattamento dei dati personali e alla libera circolazione di tali dati
ART. 10 (Disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro)
I principi generali delineati per la ricerca, lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale (IA) nel disegno di legge (DDL) sull’intelligenza artificiale in Italia, insieme alle disposizioni specifiche per l’impiego dell’IA nel contesto lavorativo come delineato nell’articolo 10, formano un quadro comprensivo che mira a garantire che l’adozione dell’IA sia etica, sicura, e rispettosa dei diritti umani e dei lavoratori.
Ecco una sintesi integrata dei principi chiave:
- Rispetto dei Diritti Fondamentali e delle Libertà: L’IA deve essere utilizzata in modo che rispetti i diritti fondamentali, le libertà individuali, e promuova l’equità e la giustizia sociale, garantendo trasparenza, sicurezza, protezione dei dati, non discriminazione, e sostenibilità.
- Correttezza e Trasparenza dei Dati e dei Processi: I sistemi di IA devono basarsi su dati e processi corretti, affidabili, sicuri, e trasparenti, assicurando l’adeguatezza e la proporzionalità del loro utilizzo.
- Rispetto dell’Autonomia Umana: L’IA deve essere sviluppata e applicata rispettando l’autonomia umana, garantendo che le decisioni importanti rimangano sotto controllo umano e siano comprensibili agli utenti.
- Protezione della Democrazia: L’utilizzo dell’IA non deve interferire con i processi democratici, assicurando che la tecnologia supporti piuttosto che manipoli la vita politica e istituzionale.
- Cybersicurezza: La sicurezza dei sistemi di IA è cruciale per proteggerli da manipolazioni e garantire la loro resilienza lungo tutto il ciclo di vita.
- Accesso per le Persone con Disabilità: L’IA deve essere inclusiva e accessibile a tutti, comprese le persone con disabilità, in linea con i principi di non discriminazione.
- Miglioramento delle Condizioni di Lavoro: L’IA deve essere impiegata per migliorare le condizioni di lavoro, la qualità delle prestazioni e la produttività, nel rispetto dei diritti dei lavoratori e in conformità con il diritto dell’Unione europea.
- Sicurezza e Trasparenza nell’Utilizzo dell’IA nel Lavoro: È essenziale che l’uso dell’IA nel lavoro sia sicuro, affidabile e trasparente, senza violare la dignità umana o la riservatezza dei dati personali, con i datori di lavoro che informano adeguatamente i lavoratori.
- Garanzia dei Diritti dei Lavoratori: L’IA nel lavoro deve rispettare i diritti inviolabili dei lavoratori, prevenendo discriminazioni e garantendo un trattamento equo e non discriminatorio.
Questi principi riflettono un impegno complessivo a garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo responsabile, etico e sicuro, con un forte accento sulla protezione dei diritti umani e dei lavoratori, promuovendo una società più giusta, inclusiva e democratica.
Le disposizioni stabiliscono che l’intero processo di sviluppo e impiego dei sistemi e modelli di intelligenza artificiale (IA) deve essere guidato dal rispetto per i diritti umani fondamentali, come delineato dalle normative italiane ed europee.
Questo include l’aderenza a valori chiave quali trasparenza, equità, sicurezza, valorizzazione economica dei dati, tutela della privacy, confidenzialità, affidabilità, precisione, inclusione, uguaglianza di genere e sostenibilità ambientale. Si sottolinea l’importanza di principi quali l’autonomia umana, la prevenzione dei danni, la comprensibilità e l’accessibilità delle informazioni, e la capacità di spiegare le decisioni prese dall’IA.
È fondamentale che l’uso dell’IA non comprometta la vita democratica del paese o l’integrità delle sue istituzioni. Si evidenzia l’essenzialità della cybersicurezza attraverso tutte le fasi di vita dei sistemi IA. Inoltre, si assicura che le persone con disabilità abbiano accesso completo ai sistemi IA senza discriminazioni.
Nell’ambito dei media, l’impiego dell’IA deve rispettare i principi di libertà, pluralismo, e le norme che garantiscono l’obiettività, l’integrità, l’imparzialità e la fedeltà nell’informazione.
Per quanto riguarda lo sviluppo economico, lo Stato e le autorità pubbliche sono incoraggiati a promuovere l’uso dell’IA nei settori produttivi per incrementare la produttività e stimolare l’avvio di nuove iniziative imprenditoriali che contribuiscano al benessere sociale, sempre nel rispetto delle regole di concorrenza e assicurando l’uso e l’accesso a dati di alta qualità. È previsto che lo Stato e le autorità pubbliche orientino anche le piattaforme di e-procurement delle amministrazioni pubbliche verso questi principi.
Le attività legate alla sicurezza nazionale, alla cybersicurezza nazionale, nonché quelle intraprese per scopi di difesa dalle forze armate e dalle forze di polizia, sono escluse dall’ambito di applicazione di queste normative.
L’art. 11 e l’osservatorio sul mondo dal lavoro
L’articolo 11 del disegno di legge (DDL) sull’intelligenza artificiale in Italia istituisce un Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, con l’obiettivo di monitorare e analizzare l’impatto dell’IA sul mercato del lavoro, identificare i settori maggiormente interessati dall’avvento dell’IA, promuovere la formazione dei lavoratori e dei datori di lavoro in materia di intelligenza artificiale, e definire una strategia sull’utilizzo dell’IA in ambito lavorativo. Questa iniziativa mira a massimizzare i benefici e contenere i rischi derivanti dall’impiego dell’IA in ambito lavorativo, garantendo che l’adozione di questa tecnologia sia etica, sicura e rispettosa dei diritti dei lavoratori.
Obiettivi e Funzioni dell’Osservatorio:
- Monitoraggio e Analisi: L’Osservatorio avrà il compito di monitorare l’impatto dell’intelligenza artificiale sul mercato del lavoro, esaminando come l’IA sta modificando le professioni, le competenze necessarie e le dinamiche occupazionali, con un focus particolare sui settori maggiormente influenzati.
- Promozione della Formazione: Sarà responsabilità dell’Osservatorio promuovere iniziative di formazione e aggiornamento professionale per lavoratori e datori di lavoro, al fine di preparare adeguatamente la forza lavoro alle sfide e alle opportunità presentate dall’IA.
- Definizione di Strategie: L’Osservatorio dovrà definire strategie per un utilizzo etico e produttivo dell’IA nel contesto lavorativo, assicurando che l’introduzione di queste tecnologie avvenga in modo tale da tutelare i lavoratori e promuovere lo sviluppo sostenibile.
Importanza e Implicazioni:
- Adattamento al Cambiamento Tecnologico: L’Osservatorio svolgerà un ruolo cruciale nell’aiutare il mercato del lavoro italiano a navigare e adattarsi ai rapidi sviluppi tecnologici, facilitando la transizione verso un’economia sempre più digitalizzata e basata sull’intelligenza artificiale.
- Supporto alle Politiche: Le analisi e i dati raccolti dall’Osservatorio forniranno un supporto fondamentale per l’elaborazione di politiche e iniziative legislative mirate a regolamentare l’utilizzo dell’IA nel lavoro, garantendo che questo avvenga in modo equo e inclusivo.
- Inclusione e Non Discriminazione: Attraverso la promozione di formazione e l’elaborazione di strategie inclusive, l’Osservatorio contribuirà a garantire che l’adozione dell’IA nel mondo del lavoro avvenga in modo non discriminatorio, offrendo opportunità a tutti i lavoratori, indipendentemente dal loro background
Art. 12 le professioni intellettuali
L’articolo 12 del disegno di legge (DDL) sull’intelligenza artificiale in Italia, insieme alle disposizioni in materia di professioni intellettuali, stabilisce un quadro normativo per l’uso responsabile dell’intelligenza artificiale nelle professioni intellettuali. Questo quadro è progettato per garantire che l’IA serva come strumento di supporto alle attività professionali, senza sostituire il giudizio umano o le competenze specifiche del professionista. Ecco una sintesi integrata dei principi e delle disposizioni principali:
Principi Guida per l’Uso dell’IA nelle Professioni Intellettuali:
- Limitazione dell’Uso dell’IA:
- L’impiego di sistemi di IA è consentito esclusivamente come supporto alle attività professionali, mantenendo la prevalenza del lavoro intellettuale umano. Questo assicura che l’IA non sostituisca il giudizio umano o le competenze professionali specifiche, ma funga piuttosto da strumento di supporto e di miglioramento dell’efficienza professionale.
- Comunicazione e Trasparenza:
- È fondamentale che i professionisti informino i clienti sull’utilizzo di sistemi di IA nelle loro attività in modo chiaro, semplice ed esaustivo. Questo rafforza il rapporto fiduciario tra professionista e cliente, garantendo che il cliente sia pienamente consapevole di come l’IA viene impiegata nella prestazione intellettuale.
- Equo Compenso e Regolamentazione:
- Le disposizioni prevedono la possibilità di modulare il compenso in funzione delle responsabilità e dei rischi associati all’uso dell’IA, così come una regolamentazione specifica, ad esempio da parte del Ministero della Giustizia per gli uffici giudiziari, per assicurare che l’uso dell’IA sia sempre subordinato alla decisione umana.
Importanza e Obiettivi delle Disposizioni:
- Preservazione dell’Integrità Professionale:
- Garantire che l’integrazione dell’IA nelle professioni intellettuali valorizzi e non sostituisca l’apporto umano essenziale, mantenendo l’integrità del lavoro intellettuale.
- Rafforzamento della Fiducia:
- La trasparenza nell’uso dell’IA contribuisce a rafforzare il rapporto fiduciario tra professionisti e clienti, elemento cruciale per la qualità delle prestazioni intellettuali.
- Adattamento al Cambiamento Tecnologico:
- Fornire un quadro che permetta alle professioni intellettuali di adattarsi ai cambiamenti tecnologici, sfruttando le potenzialità dell’IA per migliorare l’efficienza e la qualità del lavoro professionale, senza compromettere i valori etici e la responsabilità professionale.
In conclusione, l’articolo 12 del DDL sull’intelligenza artificiale e le relative disposizioni in materia di professioni intellettuali rappresentano un passo importante verso un’integrazione etica e responsabile dell’IA nel contesto professionale italiano. Queste norme mirano a bilanciare innovazione e tradizione, assicurando che l’uso dell’IA nelle professioni intellettuali sia caratterizzato da supporto, trasparenza e rispetto del giudizio umano.
Art. 13 e la Pubblica Amministrazione
L’articolo 13 del disegno di legge (DDL) sull’intelligenza artificiale in Italia stabilisce principi fondamentali per l’uso dell’intelligenza artificiale (IA) all’interno della pubblica amministrazione, mirando a migliorare l’efficienza, la rapidità e la qualità dei servizi offerti ai cittadini e alle imprese, garantendo nel contempo trasparenza e responsabilità nell’uso dell’IA.
Questi principi sono essenziali per orientare l’adozione dell’IA in modo che favorisca l’innovazione e il miglioramento dei servizi pubblici, mantenendo al contempo un alto livello di fiducia pubblica.
Principi per l’Uso dell’IA nella Pubblica Amministrazione:
- Miglioramento dell’Efficienza e dei Servizi: Le pubbliche amministrazioni sono incoraggiate a utilizzare l’IA per incrementare l’efficienza delle proprie attività, ridurre i tempi di definizione dei procedimenti e migliorare la qualità e la quantità dei servizi offerti. Questo include l’impiego dell’IA in modo trasparente e tracciabile.
- Supporto Decisionale: L’IA deve fungere da strumento di supporto all’attività decisionale, rispettando l’autonomia e il potere decisionale umano. La responsabilità finale delle decisioni rimane nelle mani delle persone.
- Formazione e Sviluppo delle Capacità: È fondamentale che le amministrazioni pubbliche adottino misure per garantire un uso responsabile dell’IA e sviluppare le capacità degli utilizzatori, attraverso formazione adeguata.
Obiettivi e Implicazioni:
- Efficienza e Accessibilità: Rendere l’amministrazione pubblica più efficiente e accessibile, sfruttando l’IA per offrire servizi migliori e più rapidi ai cittadini e alle imprese.
- Trasparenza e Responsabilità: Assicurare che l’uso dell’IA nella pubblica amministrazione sia caratterizzato da trasparenza e responsabilità, con chiara comunicazione agli utenti su come l’IA viene impiegata.
- Competenze e Formazione: Investire nella formazione dei dipendenti pubblici per garantire che siano preparati a utilizzare l’IA in modo efficace e responsabile.
Art. 14 nel sistema giudiziario
L’articolo 14 del disegno di legge (DDL) sull’intelligenza artificiale in Italia pone le basi per un’integrazione responsabile e mirata dell’intelligenza artificiale (IA) nell’ambito dell’attività giudiziaria.
Questo articolo delinea un quadro che mira a sfruttare le potenzialità dell’IA per migliorare l’efficienza e la qualità del lavoro giudiziario, pur mantenendo un rigoroso rispetto per il ruolo insostituibile del giudizio umano nel processo decisionale. Di seguito è riportata una sintesi integrata delle disposizioni principali e dei principi ipotetici basati su contesti simili e normative esistenti:
Principi per l’Utilizzo dell’IA nell’Attività Giudiziaria:
- Organizzazione e Semplificazione del Lavoro Giudiziario:
- L’IA è vista come uno strumento per ottimizzare l’organizzazione e la gestione dei casi, migliorando l’accesso e l’analisi della giurisprudenza e della dottrina. Questo approccio mira a rendere i processi giudiziari più efficienti senza compromettere la qualità della giustizia.
- Disciplina dell’Impiego dell’IA:
- Il Ministero della Giustizia regola l’uso dell’IA negli uffici giudiziari ordinari, mentre per le altre giurisdizioni l’impiego dell’IA è disciplinato secondo i rispettivi ordinamenti. Questo assicura un approccio uniforme e controllato all’adozione dell’IA nel sistema giudiziario.
- Riserva della Decisione al Magistrato:
- La responsabilità finale di interpretare la legge, valutare fatti e prove e adottare provvedimenti rimane esclusivamente in mano al magistrato. Questo principio enfatizza l’importanza del giudizio umano e dell’esperienza giuridica, assicurando che l’IA serva solo come supporto.
Principi Ipotesi per l’Integrazione dell’IA nel Sistema Giudiziario:
- Supporto Decisionale:
- L’IA può offrire supporto nella valutazione delle evidenze e nell’analisi dei dati, ma le sue raccomandazioni devono essere interpretate e applicate dai magistrati, preservando l’integrità del processo decisionale.
- Trasparenza e Spiegabilità:
- Le applicazioni di IA devono essere trasparenti e le loro funzionalità facilmente spiegabili, garantendo che sia possibile comprendere e contestare le basi delle decisioni supportate dall’IA.
- Rispetto dei Diritti Fondamentali:
- L’uso dell’IA deve essere conforme ai principi di giustizia, inclusi il diritto a un processo equo e la protezione dei dati personali, assicurando che l’integrità dei diritti individuali sia salvaguardata.
- Formazione e Competenze:
- È essenziale fornire formazione specifica ai professionisti del diritto per abilitarli a utilizzare efficacemente l’IA, comprendendo le sue potenzialità e limitazioni.
- Valutazione e Monitoraggio:
- Dovrebbero essere implementati meccanismi di valutazione periodica e monitoraggio dell’uso dell’IA nel sistema giudiziario, per identificare e correggere eventuali problemi o distorsioni.
In conclusione, l’articolo 14 del DDL sull’intelligenza artificiale mira a valorizzare le potenzialità di questa tecnologia per migliorare l’efficienza e l’accessibilità della giustizia, pur assicurando che il giudizio umano rimanga al centro del processo decisionale giudiziario.
ART. 15 Modifiche al codice di procedura civile
- All’articolo 9, comma secondo, del codice di procedura civile, dopo le parole “esecuzione forzata”
sono inserite le seguenti: “, per le cause che hanno ad oggetto il funzionamento di un sistema di
intelligenza artificiale”.
ART. 16 e la Cybersicurezza
L’articolo 16 del disegno di legge (DDL) sull’intelligenza artificiale in Italia pone un’attenzione particolare sull’importanza dell’intelligenza artificiale come strumento per il rafforzamento della cybersicurezza nazionale. In un’epoca caratterizzata da minacce informatiche sempre più sofisticate e pervasive, l’adozione di tecnologie avanzate come l’IA diventa cruciale per proteggere le infrastrutture critiche e i dati sensibili del paese. Ecco una sintesi ampliata che integra le disposizioni principali dell’articolo 16 con ulteriori considerazioni:
Dettagli e Ampliamenti dell’Articolo 16:
- Valorizzazione dell’IA nella Cybersicurezza:
- L’articolo 16 evidenzia come l’intelligenza artificiale rappresenti una risorsa fondamentale per identificare, prevenire e contrastare efficacemente le minacce informatiche. L’impiego di sistemi di IA permette un’analisi in tempo reale e una risposta rapida alle minacce, migliorando significativamente la capacità di difesa del paese.
- Collaborazione Pubblico-Privato:
- La promozione di partenariati pubblico-privato è essenziale per coniugare le competenze e le risorse del settore privato con quelle del settore pubblico.
- Questa collaborazione può accelerare lo sviluppo e l’implementazione di soluzioni di cybersicurezza innovative basate sull’IA, massimizzando l’efficacia delle strategie di difesa.
- Conformità con le Linee Guida Internazionali:
- L’articolo sottolinea l’importanza di aderire alle linee guida internazionali per lo sviluppo e l’uso etico dell’IA in ambito di cybersicurezza. Questo approccio garantisce che le pratiche adottate siano in linea con gli standard globali, rafforzando la cooperazione internazionale nella lotta contro le minacce cyber.
- Sicurezza, Privacy e Etica:
- L’uso dell’IA deve essere guidato da principi di sicurezza, privacy ed etica.
- È fondamentale garantire la protezione dei dati personali e assicurare che i sistemi di IA non siano impiegati per scopi discriminatori o malevoli, preservando i diritti e le libertà fondamentali dei cittadini.
- Monitoraggio e Valutazione:
- Un sistema di monitoraggio e valutazione continuo è cruciale per assicurare che le soluzioni di IA rimangano efficaci nel tempo e non introducano nuove vulnerabilità.
- Questo processo consente di adattare le strategie di cybersicurezza alle minacce in evoluzione e di ottimizzare l’uso delle tecnologie di IA.
Considerazioni Aggiuntive:
- Formazione e Competenze: È essenziale investire nella formazione degli operatori del settore della cybersicurezza per garantire che possano utilizzare efficacemente le tecnologie di IA. La creazione di programmi di formazione specifici può migliorare le competenze tecniche necessarie per gestire le sfide della sicurezza informatica moderna.
- Cooperazione Internazionale: Data la natura transnazionale delle minacce informatiche, l’articolo 16 potrebbe anche incoraggiare una maggiore cooperazione internazionale nel campo della cybersicurezza. La condivisione di informazioni e di migliori pratiche tra paesi può rafforzare la sicurezza globale.
- Innovazione Continua: L’ambito della cybersicurezza richiede un impegno costante verso l’innovazione. L’articolo 16 riflette l’importanza di rimanere all’avanguardia nello sviluppo di tecnologie di IA che possano anticipare e neutralizzare le minacce emergenti.
In conclusione attraverso la valorizzazione dell’IA, la promozione di collaborazioni pubblico-privato, e l’adesione a principi di sicurezza, privacy ed etica, l’Italia mira a rafforzare la sua capacità di proteggersi dalle minacce informatiche, garantendo al contempo che l’uso dell’IA sia responsabile e allineato con gli standard internazionali.
Art. 20 Misure di sostegno ai giovani e allo sport
- L’articolo 20 pone un forte accento sull’integrazione dell’intelligenza artificiale nella ricerca giovanile e nell’istruzione, offrendo agli studenti ad alto potenziale cognitivo la possibilità di esplorare e sviluppare competenze in IA. Questo non solo prepara una nuova generazione di esperti in IA ma promuove anche l’innovazione attraverso la ricerca applicata.
- Sviluppo di Competenze e Opportunità Educativa Avanzata:
- Attraverso il Piano Didattico Personalizzato (PDP), gli studenti possono beneficiare di un’educazione avanzata in IA, acquisendo competenze che saranno valutate nei loro futuri percorsi formativi superiori. Questo approccio personalizzato apre la strada a un’istruzione che risponde direttamente alle esigenze e alle capacità individuali degli studenti.
- Utilizzo dell’IA per il Benessere e l’Inclusione nello Sport:
- L’articolo 20 evidenzia il ruolo dell’IA nel migliorare il benessere psicofisico attraverso lo sport, con particolare attenzione allo sviluppo di soluzioni innovative per l’inclusione delle persone con disabilità. L’IA viene vista come uno strumento per rendere lo sport più accessibile e per ottimizzare l’organizzazione delle attività sportive.
- Approccio al Sostegno dei Giovani e dello Sport:
- Oltre all’enfasi sull’IA, l’articolo 20 si inserisce in un contesto più ampio di iniziative e finanziamenti volti a promuovere l’attività fisica e l’accesso allo sport per i giovani. Questo include il sostegno finanziario alle organizzazioni sportive, la cooperazione nazionale e internazionale, e l’adozione di misure per stimolare la partecipazione sportiva.
- Innovazione e Sostegno Economico:
- Le misure di sostegno previste dall’articolo 20 riflettono un impegno verso l’innovazione nello sport e l’educazione attraverso l’IA, nonché un supporto economico tangibile per le organizzazioni sportive, evidenziando l’importanza di un approccio misto, pubblico e privato, per il finanziamento dello sport.
Articolo 22 e la delega al governo
Il Governo ha il compito, entro un anno dall’attivazione di questa legge, di elaborare e promulgare uno o più decreti seguendo le linee guida stabilite in precedenti leggi, previa consultazione delle commissioni parlamentari competenti e del responsabile della tutela della privacy, per allineare le leggi nazionali al Regolamento sull’intelligenza artificiale stabilito dall’Unione europea il 13 marzo 2024.
Nello specifico, il Governo dovrà:
- Identificare le autorità nazionali responsabili dell’implementazione del regolamento, conformemente a quanto definito in altre parti della legge, includendo un organo di sorveglianza del mercato, un’entità per la notifica e un punto di contatto per le interazioni con l’UE.
- Implementare programmi educativi e di formazione sull’uso dell’intelligenza artificiale sia per i cittadini che per i professionisti nel campo, con l’aggiunta di percorsi di formazione specifici offerti dai corpi professionali.
- Introdurre nei programmi di studio scolastici un rafforzamento delle competenze nelle aree STEM (Scienza, Tecnologia, Ingegneria, Arte e Matematica) per incentivare gli studenti a perseguire studi avanzati in queste discipline.
- Assicurare che i corsi universitari e di alta formazione includano moduli formativi per una comprensione approfondita e un uso etico delle tecnologie, incluso l’intelligenza artificiale, secondo le normative europee.
- Promuovere la ricerca e il trasferimento tecnologico in intelligenza artificiale attraverso università, istituti di alta formazione e centri di ricerca, con l’obiettivo di facilitare la collaborazione tra il mondo accademico e il settore produttivo e di stimolare l’adozione di normative sperimentali.
Inoltre, il Governo è incaricato di emettere decreti per definire le regole in caso di uso illecito dell’intelligenza artificiale entro lo stesso termine di un anno.
Questi decreti saranno proposti dalla Presidenza del Consiglio dei Ministri e dal Ministro della Giustizia, in accordo con il Ministro dell’Interno, e dovranno essere esaminati dalle commissioni parlamentari competenti. Se non si riceve un feedback entro sessanta giorni, i decreti possono essere adottati comunque. Se il termine per la consultazione scade a meno di trenta giorni dalla fine del periodo delegato, questo sarà esteso di sessanta giorni.
I principi guida per questi decreti includono:
- La creazione di misure legali per prevenire e rimuovere contenuti generati illegalmente tramite intelligenza artificiale, accompagnate da sanzioni efficaci.
- L’introduzione di nuove categorie di reati legati alla mancata implementazione o all’aggiornamento insufficiente delle misure di sicurezza nell’uso professionale dell’intelligenza artificiale, oltre a reati specifici per proteggere determinati diritti legali minacciati dall’uso dell’intelligenza artificiale.
- L’aggiunta di una circostanza aggravante per reati commessi con l’uso dell’intelligenza artificiale che causano un danno significativo.
- Un aggiornamento complessivo delle leggi esistenti per riflettere i principi sopra menzionati.
E’ solo un disegno legge?
Tuttavia, essendo ancora in fase di disegno di legge, il testo dovrà passare attraverso l’esame di Camera e Senato, dove potrebbe subire modifiche prima di diventare legge. Questo processo di revisione e approvazione gioca un ruolo fondamentale nella definizione della forma finale della legislazione, influenzando come l’Italia affronterà le sfide e coglierà le opportunità offerte dall’IA nel contesto globale e europeo.