Un dibatitto aperto
Mentre l’Intelligenza Artificiale (IA) continua a permeare ogni aspetto della nostra vita quotidiana, c’è un dibattito in corso sulla necessità di regolamentare questa tecnologia. Alcuni sostengono che la regolamentazione sia essenziale per prevenire abusi e discriminazioni. Tuttavia, ci sono anche argomenti validi per sostenere che la regolamentazione dell’IA potrebbe non essere necessaria o addirittura controproducente.
La necessità di regolamentare l’intelligenza artificiale
L’intelligenza artificiale (IA) sta diventando sempre più presente nella nostra vita quotidiana. Dalle auto autonome alle chatbot ai sistemi di riconoscimento facciale, l’IA sta rivoluzionando il modo in cui interagiamo con il mondo. Tuttavia, con questo rapido sviluppo dell’IA, sorge anche l’urgente necessità di regolamentare questa tecnologia.
Ci sono molte ragioni per cui la regolamentazione dell’IA è così importante.
In primo luogo, l’IA può avere un impatto significativo sulla vita delle persone. Ad esempio, gli algoritmi di selezione del personale possono influenzare la carriera di una persona, mentre i sistemi di valutazione del credito possono influenzare la loro capacità di ottenere un prestito. Senza una regolamentazione adeguata, questi sistemi potrebbero essere utilizzati per discriminare le persone in base alla loro razza, genere o altre caratteristiche personali.
In secondo luogo, l’IA può avere implicazioni significative per la privacy delle persone. I sistemi di riconoscimento facciale, ad esempio, possono essere utilizzati per monitorare le attività delle persone senza il loro consenso. Senza una regolamentazione adeguata, questi sistemi potrebbero essere utilizzati per spiare le persone o violare la loro privacy.
In terzo luogo, l’IA può avere implicazioni significative per la sicurezza nazionale. Ad esempio, i sistemi di arma autonoma potrebbero essere utilizzati per attaccare obiettivi militari o civili senza il controllo umano adeguato. Senza una regolamentazione adeguata, questi sistemi potrebbero rappresentare una minaccia per la sicurezza pubblica.
Infine, la regolamentazione dell’IA è importante perché aiuta a promuovere l’innovazione responsabile. La regolamentazione può aiutare a garantire che l’IA sia sviluppata in modo etico e responsabile, senza causare danni alle persone o all’ambiente.
In conclusione sembrerebbe che la regolamentazione dell’IA è essenziale per garantire che questa tecnologia sia sviluppata in modo etico e responsabile e che abbia un impatto positivo sulla vita delle persone.
La tesi contraria
Innovazione senza restrizioni: un argomento chiave contro la regolamentazione dell’IA è che potrebbe ostacolare l’innovazione. Le leggi e i regolamenti possono essere lenti da creare e da adattare, e potrebbero non essere in grado di tenere il passo con il rapido sviluppo dell’IA. Questa lentezza potrebbe limitare la capacità dei ricercatori e delle aziende di sperimentare nuovi approcci e applicazioni dell’IA.
Autoregolamentazione: un altro argomento contro la regolamentazione dell’IA è che l’industria dell’IA può autoregolarsi. Molte aziende tecnologiche sono già consapevoli dei rischi associati all’IA e stanno adottando misure per mitigarli. Ad esempio, molte aziende stanno sviluppando principi etici per guidare il loro lavoro sull’IA e stanno investendo in ricerca per rendere l’IA più sicura e equa.
Difficoltà nella definizione: definire cosa dovrebbe essere regolamentato nell’IA può essere difficile. L’IA è un campo vasto e in continua evoluzione, con molte sottocategorie e applicazioni diverse. Creare una regolamentazione che copra tutte queste aree senza soffocare l’innovazione potrebbe essere un compito arduo.
Globalizzazione dell’IA: l’IA è una tecnologia globale e le sue applicazioni non conoscono confini. Una regolamentazione efficace richiederebbe un accordo internazionale, cosa che può essere difficile da raggiungere. Inoltre, le aziende potrebbero semplicemente spostare le loro operazioni in paesi con regolamentazioni meno severe.
In conclusione, mentre ci sono preoccupazioni legittime riguardanti l’IA, ci sono anche argomenti validi per sostenere che la regolamentazione potrebbe non essere la soluzione migliore. Potrebbe essere più efficace incentivare l’autoregolamentazione dell’industria, promuovere la ricerca su IA sicura ed equa, e lavorare verso norme internazionali piuttosto che imporre regolamenti rigidi.
In attesa del regolamento, la proposta di legge in Italia
Da diverso tempo in questo blog stiamo discutendo e disquisendo sul lungo percorso che vedrà l’emanazione della intelligenza artificiale
Come noto, l’Unione Europea sta prendendo in considerazione la creazione di una normativa per regolamentare il settore dell’intelligenza artificiale, cercando di assumere un ruolo di guida internazionale nella definizione di barriere legislative per l’utilizzo e lo sviluppo di questa tecnologia.
Nell’aprile 2021, la Commissione europea ha presentato la prima proposta di quadro giuridico completo relativo all’intelligenza artificiale. La proposta si basa su un approccio “basato sul rischio” e classifica i sistemi di intelligenza artificiale in base al loro potenziale di danneggiare i diritti e la sicurezza.
Di conseguenza, i sistemi di intelligenza artificiale ad alto rischio, come quelli impiegati nel settore medico o amministrativo, sarebbero soggetti a una rigorosa regolamentazione.
L’Unione Europea ha quindi adottato un approccio prescrittivo alla regolamentazione dell’intelligenza artificiale, concentrandosi sugli utilizzi, lo sviluppo e la diffusione ad alto rischio.
AI PACT
Le regole riguardanti l’Intelligenza Artificiale (IA) stanno ancora attraversando il lungo processo legislativo dell’Unione Europea. Tuttavia, l’UE sta cercando di adottare diverse misure provvisorie, tra cui un nuovo codice di condotta volontario per l’IA generativa, simile a quello implementato dalle autorità statunitensi, e un “patto per l’IA”.
La Commissione europea e il Parlamento dell’UE hanno stretto un patto per l’intelligenza artificiale, che prevede l’avvio di una procedura di conformità volontaria anticipata. L’obiettivo è di garantire che, quando l’AI Act entrerà in vigore, le istituzioni e le imprese siano pronte a rispettare le norme.
“L’obiettivo è concludere il negoziato con gli Stati membri entro il 2023 ed approvate l’AI Act in modo definitivo a inizio 2024. Dopo serviranno due anni, forse ridurremo a un anno e mezzo il tempo necessario per far entrare il Regolamento pienamente in vigore”, ha spiegato Benifei, europarlamentare e correlatore dell’AI ACT
Quindi visti i tempi lunghi, “nel frattempo”, ha annunciato Benifei, “andremo ad attivare l’’AI Pact’, il patto per l’intelligenza artificiale: ossia la Commissione europea con il Parlamento UE avvierà una procedura di compliance volontaria anticipata. Noi puntiamo molto, perché non vogliamo che si arrivi alla data dell’AI Act pienamente in vigore con Istituzioni e imprese non pronte al rispetto delle norme. Quindi questo accompagnamento alla compliance sarà estremamente importante”.
Il lavoro di preparazione sull’AI Act è iniziato quando l’AI generativa non aveva un uso quotidiano da parte dei consumatori, per cui è nato con un altro tipo di approccio, “mentre oggi”, ha aggiunto Benifei, “il regolatore europeo vuole governala in modo più profondo e proporzionato anche con il dialogo con gli Stati membri”.
L’Unione Europea riconosce l’importanza dell’intelligenza artificiale come opportunità di crescita economica e sociale. Tuttavia, definire solo regole per l’IA può essere controproducente a livello europeo. Il correlatore dell’AI Act è consapevole di questo.
“Non sono sufficienti solo le regole per governare l’IA, servono anche azioni politiche su altri aspetti: servono capitali d’investimento e Ricerca in modo comune con gli Stati UE, un piano comune sulla formazione permanente dei lavoratori e sulla formazione primaria sull’IA”, questa la visione di Benifei.
“Per essere competitivi con Cina e USA”, ha concluso, “non servono solo le regole comuni sull’IA, ma anche azioni comuni dei Paesi UE per sviluppare l’intelligenza artificiale in Europa”.
Il meccanismo menzionato sopra è noto come “sandbox regolamentare” e consente alle imprese di testare le loro innovazioni in un ambiente controllato, sotto la supervisione delle autorità competenti.
Ciò permette alle aziende di conformarsi alle regole future prima della loro piena applicazione, riducendo così il rischio di violare le norme.
È importante notare che le regole sono state redatte prima dell’ultimo boom dell’IA generativa e, pertanto, potrebbero non entrare in vigore prima di due anni.
Tuttavia, l’Unione Europea sta lavorando per accelerare il processo di applicazione delle norme.
La proposta dell’on. Nicita
In Italia è stato presentato il primo disegno di legge per regolamentare l’utilizzo dell’intelligenza artificiale. L’onorevole Nicita ha proposto l’obbligo di etichettatura per i contenuti generati da intelligenza artificiale, al fine di garantire la trasparenza e la tutela dei diritti degli utenti.
Il disegno di legge richiederebbe che i contenuti prodotti dall’intelligenza artificiale siano chiaramente identificati come tali. Questo è in linea con le direttive del prossimo IA Act europeo. Il disegno di legge è stato presentato dal senatore Antonio Nicita del Partito Democratico, già commissario Agcom e noto economista. Puoi trovare il testo completo del disegno di legge qui: (pdf).
Questo progetto di legge rappresenta uno dei primi passi nel contesto internazionale per la regolamentazione dell’uso dell’IA.
Una crescente quantità di contenuti audiovisivi ed editoriali sono prodotti attraverso l’elaborazione di AI generativa. Il “Disegno di legge sulla trasparenza dei contenuti generati da intelligenza artificiale” sottolinea l’importanza di informare gli utenti al fine di prevenire la manipolazione dell’informazione e la violazione del diritto d’autore.
La proposta evidenzia la preoccupazione per i “deep fake”, ovvero contenuti audio, immagini o video manipolati o sintetizzati attraverso l’utilizzo di tecniche di intelligenza artificiale come l’apprendimento automatico e profondo, che possono far apparire i contenuti falsamente autentici o veritieri.
Il crescente utilizzo di contenuti generati dall’IA solleva diverse problematiche legate all’autenticità, alla verifica delle fonti, al diritto d’autore, al diritto alla tutela dell’immagine, alla lotta alla disinformazione e alla responsabilità per diffamazione, come indicato nella proposta.
“In attesa di una normativa completa, anche in ottemperanza ai regolamenti europei, è importante rendere immediatamente riconoscibile agli utenti la natura non umana dei contenuti generati dall’Intelligenza Artificiale, indicandola attraverso un’etichettatura o un watermark appositi.”
Il disegno di legge proposto introduce l’obbligo per i soggetti responsabili della pubblicazione e della diffusione dei contenuti generati da AI di garantire una chiara identificazione agli utenti dei contenuti prodotti dall’intelligenza artificiale.
Il ruolo dell’Agcom
Le modalità per certificare prodotti e servizi sviluppati con l’Intelligenza Artificiale (IA) saranno stabilite dall’Autorità per le garanzie nelle comunicazioni (Agcom) attraverso un proprio Regolamento, da pubblicare entro 60 giorni dall’approvazione della legge.
Un’etichettatura univoca come “AI made/prodotto da intelligenza artificiale” potrebbe rappresentare una soluzione efficace per identificare i prodotti e i servizi che utilizzano l’IA. Le modalità di attuazione di questa etichettatura saranno definite dall’Agcom nel proprio Regolamento.
In base al progetto di legge, i contenuti sviluppati con l’Intelligenza Artificiale potranno essere identificati e riconoscibili attraverso l’utilizzo di sistemi di etichettatura, filigrana o avvisi visibili all’inizio e alla fine del prodotto.
Il sistema di tracciamento permetterà di ridurre al minimo le problematiche legate all’autenticità, al controllo delle fonti, alla tutela del diritto d’autore e dell’immagine, alla lotta contro la disinformazione e alla responsabilità per diffamazione. In questo modo, si potrà garantire una maggiore affidabilità e veridicità delle informazioni diffuse.
Una prima definizione
La definizione di “contenuti generati da intelligenza artificiale (IA)” si riferisce a tutti i contenuti editoriali, come testi, video, immagini e voci, che sono creati, generati o sintetizzati, in tutto o in parte, da sistemi basati su intelligenza artificiale, come algoritmi di apprendimento automatico e reti neurali artificiali.
Secondo la proposta di legge, l’AGCOM sarà l’ente responsabile del monitoraggio, della segnalazione e della rimozione dei contenuti pubblicati, nonché dell’applicazione di misure punitive proporzionate alla gravità della violazione commessa.
L’Agcom sarebbe responsabile del monitoraggio e dell’applicazione delle disposizioni di legge riguardanti i contenuti pubblicati e diffusi. Avrebbe il compito di segnalare e rimuovere i contenuti che violano tali disposizioni e avrebbe il potere di comminare sanzioni proporzionate alla gravità della violazione. Insomma un compito monstre.
Poteva mancare una commissione ?
La Presidenza del Consiglio ha avviato una Commissione di indagine sulla potenziale perdita di posti di lavoro legata all’adozione di algoritmi di intelligenza artificiale.
Il promotore dell’iniziativa è Alberto Barachini, responsabile dell’editoria del governo Meloni, che ha offerto la carica di presidente della Commissione a Giuliano Amato.
La Commissione avrà il compito di studiare il fenomeno e redigere un rapporto per valutare quanti posti di lavoro sono a rischio, ad esempio nel settore dell’editoria e del giornalismo.
Sono state avviate diverse indagini conoscitive in Parlamento attraverso diverse Commissioni, dimostrando la natura trasversale dell’Intelligenza Artificiale.
Sono state istituite diverse task force ministeriali, tra cui quella più recente creata dal Sottosegretario Butti, con il compito di aggiornare la strategia attuale. Si è anche proposta l’idea di creare un istituto per l’Intelligenza Artificiale a Torino e si è accennato alla possibilità di un collegato alla legge di bilancio in materia.
Presso Agid viene inoltre istituita una Segreteria Tecnica con funzioni di supporto al Comitato e per l’elaborazione dei documenti necessari all’elaborazione del piano strategico. Della task force fanno parte sia rappresentanti del Dipartimento per la Trasformazione Digitale sia dell’Agenzia per l’Italia Digitale.
Investimenti in IA: L’Italia è indietro
Tuttavia, l’Italia sta facendo fatica a tenere il passo con questa rapida evoluzione.
L’Italia è uno dei Paesi del G7 dove si investe di meno in IA. Nonostante le promesse di aumentare gli investimenti, siamo ancora lontani da Paesi come la Svezia, la Finlandia e la Spagna, che stanno investendo pesantemente in questa tecnologia.
Una delle principali carenze del piano triennale del Governo era la mancanza di un budget specifico per l’IA. Invece di stanziare nuove risorse, il piano si basava su fondi già allocati per altri scopi. Questo approccio ha limitato la nostra capacità di competere a livello internazionale nel campo dell’IA.
Il Centro per l’Intelligenza Artificiale di Torino
Il Governo ha proposto di creare un nuovo centro per l’IA a Torino con un budget annuale di venti milioni di euro. Tuttavia, questa cifra è molto inferiore a quella originariamente prevista, che avrebbe permesso al centro di raggiungere l’eccellenza nella ricerca a livello internazionale.
Un Fondo Ambizioso
Il Sottosegretario Butti ha annunciato un fondo di 600 milioni di euro per l’IA. Questo fondo, finanziato in gran parte dai privati, rappresenta un passo importante verso l’aumento degli investimenti in IA in Italia. Tuttavia, questi fondi da soli non sono sufficienti per portare l’Italia al livello di altri Paesi europei.
Cosa sta succendo altrove?
Usa
Tutte le principali aziende tecnologiche si sono impegnate con il Governo americano a seguire alcuni principi per garantire un utilizzo responsabile dell’intelligenza artificiale (IA). Uno di questi principi è la trasparenza.
Le aziende si sono impegnate a sviluppare meccanismi tecnici robusti per informare gli utenti quando il contenuto è generato dall’IA, ad esempio attraverso l’utilizzo di un sistema di watermarking.
Questo impegno delle aziende rappresenta un passo importante verso un utilizzo responsabile dell’IA e una maggiore fiducia da parte degli utenti.
I lavori sono in corso. OpenAI ha appena annunciato lo sviluppo di un nuovo strumento in grado di riconoscere al 99% se un contenuto è stato generato tramite intelligenza artificiale.
Questo strumento, sebbene non vincolante, costituirà la base di un futuro ordine presidenziale riguardante l’IA, un argomento che ha suscitato preoccupazione da parte del presidente Joe Biden in diverse occasioni.
EU – USA un difficile rapporto
La Computer & Communications Industry Association (CCIA), un’associazione che rappresenta sviluppatori, distributori e utenti di IA, ha sollevato l’importanza di affrontare i problemi critici dell’uso dell’IA prima che diventi legge entro la fine dell’anno.
L’associazione ha evidenziato l’importanza di mantenere l’attenzione sui rischi associati all’utilizzo dell’Intelligenza Artificiale (IA), in particolare quelli ad alto rischio, senza però ostacolare l’innovazione con una regolamentazione eccessiva.
L’obiettivo della legge proposta sull’IA è di garantire la fiducia e l’innovazione nell’utilizzo dell’IA, ma alcuni politici e Stati membri sono preoccupati che alcuni membri del Parlamento Europeo vogliano allontanarsi dai principi fondamentali della normativa, rendendola troppo severa.
Ciò potrebbe rappresentare un momento critico per l’Unione Europea nel perseguire le sue ambizioni di creare una legislazione all’avanguardia nel campo dell’intelligenza artificiale.
Pertanto, diverse organizzazioni coinvolte hanno emesso una dichiarazione congiunta per esprimere le loro preoccupazioni riguardo alla fase finale della legge proposta sull’IA.
La dichiarazione congiunta del settore invia un chiaro messaggio ai legislatori dell’UE: se la legge finale sull’IA si discosta dall’approccio originale basato sul rischio, l’Europa rischia di soffocare l’innovazione nel settore.
Si chiede ai colegislatori di trovare un giusto equilibrio tra la regolamentazione dell’Intelligenza Artificiale e la sua promozione.
Gli Stati Uniti avrebbero avvertito l’Unione Europea che la proposta di legge per regolamentare l’IA potrebbe favorire le grandi aziende con le risorse necessarie per coprire i costi di conformità alla normativa, a scapito delle imprese più piccole.
È quindi importante trovare un modo per bilanciare la regolamentazione dell’IA in modo da non ostacolarne lo sviluppo e l’innovazione, ma allo stesso tempo garantire che sia sicura e responsabile.
Il capo di OpenAI, Sam Altman, ha recentemente espresso preoccupazione riguardo alle possibili conseguenze delle regole finali sull’Intelligenza Artificiale (IA) nel mercato comunitario.
In un’intervista al Financial Times, Altman ha affermato che se le regole saranno troppo severe, la sua azienda potrebbe essere costretta ad abbandonare completamente il mercato.
L’Australia punta a bloccare i Deepfake e il Materiale Pedopornografico prodotto dall’IA
L’Intelligenza Artificiale (IA) ha aperto nuovi orizzonti in molti settori, ma ha anche portato con sé nuove sfide etiche e legali. Una di queste riguarda l’uso improprio dell’IA per creare materiale pedopornografico e versioni deepfake dello stesso. L’Australia sta prendendo provvedimenti per affrontare questa problematica, come ha annunciato a settembre il suo regolatore di Internet.
Nuovi Codici per i Motori di Ricerca
L’Australia sta lavorando per far sì che i motori di ricerca redigano nuovi codici che impediscano la condivisione di materiale pedopornografico creato dall’IA. Questo è un passo importante per contrastare l’uso improprio dell’IA e proteggere i minori.
La diffusione di materiale pedopornografico è un reato grave e la sua creazione tramite l’IA non fa eccezione. I nuovi codici saranno progettati per rilevare e bloccare la condivisione di tali contenuti.
Deepfake: Una Nuova Sfida
Una sfida particolare riguarda i deepfake, versioni artificialmente create di video o foto che possono essere quasi indistinguibili dall’originale. Queste tecniche possono essere usate per creare materiale pedopornografico, rendendo ancora più difficile la lotta contro la sua diffusione.
L’Australia sta quindi cercando di implementare misure che impediscono anche la produzione e la condivisione di versioni deepfake di materiale pedopornografico.
Sicurezza dell’Intelligenza Artificiale: La Gran Bretagna si prepara per il futuro
Le sfide poste dall’intelligenza artificiale (IA) non sono solo di natura tecnologica, ma riguardano anche questioni di sicurezza e privacy. Il Primo Ministro britannico, Rishi Sunak, ha recentemente sottolineato l’importanza di affrontare questi rischi in modo diretto.
Il Primo Vertice Globale sulla Sicurezza dell’IA
Sunak ha parlato della necessità di affrontare i rischi dell’IA in vista del primo vertice globale sulla sicurezza dell’intelligenza artificiale, che si terrà a Bletchley Park l’1 e il 2 novembre. Questo evento sarà un’occasione importante per i leader mondiali per discutere e condividere le migliori pratiche sulla gestione dei rischi legati all’IA.
Un Istituto per la Sicurezza dell’IA
Il Primo Ministro ha inoltre annunciato che la Gran Bretagna istituirà il primo istituto al mondo per la sicurezza dell’intelligenza artificiale. Questo istituto avrà il compito di “capire di cosa è capace ogni nuovo modello, esplorando tutti i rischi, dai danni sociali come pregiudizi e disinformazione fino ai rischi più estremi”.
Snapchat sotto Accusa
La questione della sicurezza dell’IA è già al centro dell’attenzione in Gran Bretagna. L’autorità di vigilanza dei dati britannica ha infatti inviato a Snapchat, l’app di messaggistica di Snap, un avviso preliminare per una possibile incapacità di valutare adeguatamente i rischi per la privacy del suo chatbot di intelligenza artificiale generativa per gli utenti, in particolare i bambini.
Conclusione
L’annuncio del Primo Ministro Sunak sottolinea l’importanza che la Gran Bretagna attribuisce alla sicurezza nell’uso dell’intelligenza artificiale. L’istituzione del primo istituto al mondo dedicato espressamente a questa questione è un segnale forte che il Paese è deciso a prendere sul serio i rischi associati all’IA…[omitted]
La Cina rafforza la sicurezza dell’Intelligenza Artificiale: cosa significa per le aziende
Cina, uno dei leader globali nel campo dell’IA, ha recentemente pubblicato una serie di nuovi requisiti di sicurezza per le aziende che offrono servizi basati sull’IA generativa.
Nuovi Requisiti di Sicurezza
Il 12 ottobre, la Cina ha proposto una lista di requisiti di sicurezza specifici per le aziende che operano nel campo dell’IA generativa. Questi requisiti includono una lista nera di fonti che non possono essere utilizzate per addestrare i modelli di intelligenza artificiale. Questa mossa potrebbe avere un impatto significativo su come le aziende addestrano i loro algoritmi e su quali dati possono utilizzare.
Misure Temporanee
Oltre ai nuovi requisiti, la Cina ha anche emesso una serie di misure temporanee in agosto. Queste misure richiedono ai fornitori di servizi di presentare valutazioni di sicurezza e ottenere l’autorizzazione prima di rilasciare prodotti di intelligenza artificiale sul mercato di massa.
Queste misure rappresentano un passo significativo verso la regolamentazione dell’IA in Cina. Le aziende che operano in questo settore dovranno adattarsi a queste nuove regole e assicurarsi che i loro prodotti e servizi siano conformi.
Francia e linee guida del CNIL
L’addestramento degli algoritmi richiede molti dati, spesso dati personali, il cui utilizzo deve essere regolamentato per tutelare la privacy delle persone.
Per questo motivo, la Commissione nazionale per l’informatica e le libertà (CNIL) ha pubblicato alcune linee guida per l’utilizzo dell’IA nel rispetto dei dati personali. Queste linee guida sono state create per garantire che l’innovazione nell’ambito dell’IA sia responsabile e rispetti le persone.
La CNIL ha creato un servizio dedicato all’IA e ha lanciato un piano d’azione per chiarire le regole e sostenere l’innovazione in questo settore. Inoltre, sono stati lanciati due programmi di sostegno dedicati all’IA per sostenere gli attori francesi: un sandbox per tre progetti che utilizzano l’IA a beneficio dei servizi pubblici e un sistema di sostegno rafforzato per tre imprese innovative di medie dimensioni.
La CNIL ha incontrato i principali attori francesi dell’IA e ha lanciato un invito a presentare contributi sulla creazione di una banca dati per alimentare la sua riflessione. In questo modo, la CNIL vuole garantire certezza giuridica ai protagonisti dell’IA.
Le linee guida della CNIL confermano la compatibilità della ricerca e sviluppo sull’IA con il regolamento generale sulla protezione dei dati (GDPR), a condizione che non vengano superate alcune linee rosse e siano rispettate determinate condizioni.
Ad esempio, il principio della finalità richiede che i dati personali siano utilizzati solo per un obiettivo specifico definito in anticipo. In termini di IA, un operatore non può definire tutte le sue future applicazioni in fase di addestramento dell’algoritmo, ma la tipologia di sistema e le principali funzionalità possibili devono essere state ben definite.
Il principio di minimizzazione non impedisce l’utilizzo di database di grandi dimensioni, ma i dati utilizzati devono essere stati selezionati per ottimizzare l’addestramento dell’algoritmo evitando l’utilizzo di dati personali non necessari.
Il periodo di conservazione dei dati di addestramento può essere lungo se giustificato, ad esempio per la formazione delle banche dati che richiedono notevoli investimenti scientifici e finanziari e talvolta diventano standard ampiamente utilizzati dalla comunità.
Infine, la CNIL ritiene che il riutilizzo degli insiemi di dati sia possibile per addestrare l’IA, previa verifica che i dati non siano stati raccolti in modo manifestamente illecito e che lo scopo del riutilizzo sia compatibile con la raccolta iniziale.
In sintesi, la CNIL sta promuovendo l’innovazione responsabile nel campo dell’IA proteggendo le persone e garantendo certezza giuridica ai protagonisti del settore.
Spagna e la prima agenzia dedicata all’intelligenza artificiale
La Spagna diventa il primo paese europeo ad istituire un’agenzia dedicata alla supervisione e normazione dell’intelligenza artificiale. Questa nuova agenzia, chiamata AESIA, avrà sede a Lo Coruna, in Galizia, dopo una gara con altre 16 città in lizza su tutto il territorio.
L’obiettivo dell’AESIA è quello di garantire che lo sviluppo dell’AI nel paese sia “inclusivo, sostenibile e incentrato sui cittadini”. L’agenzia sarà formata in collaborazione fra il ministero spagnolo delle finanze e del servizio civile e quello degli affari economici e della trasformazione digitale.
Fra le sue funzioni, la supervisione dell’uso di questa tecnologia nei suoi diversi campi, nonché il controllo della commercializzazione dei sistemi che includono l’intelligenza artificiale (AI) e, in particolare, quelli che possono comportare rischi significativi per la salute, la sicurezza e diritti individuali.
L’agenzia intende inoltre fungere da trampolino di lancio per l’introduzione e il buon utilizzo verificabile e aperto dell’IA; la definizione di meccanismi consultivi e assistenziali; la collaborazione e il coordinamento con altre autorità di vigilanza sull’IA (nazionali e sovranazionali) e la promozione di veri e propri ambienti di test per i sistemi di IA per rafforzare la tutela degli utenti.
Questa è una novità importante per la Spagna, ma anche per l’Unione Europea. A giugno di quest’anno, l’Unione Europea ha approvato l’AI Act, il quadro normativo di base per la governance e la gestione dell’AI. Una volta recepito, il nuovo quadro di regole imporrà una serie di restrizioni su diversi servizi basati sull’AI, proibendo diversi prodotti.
Tra le tecnologie che potrebbero essere completamente bandite ci sono la sorveglianza biometrica, i sistemi di punteggio sociale, gli algoritmi di polizia predittiva, i software di riconoscimento delle emozioni e i sistemi di riconoscimento facciale non mirati.
Tuttavia, i modelli di intelligenza artificiale generativa come ChatGPT di OpenAI e Bard di Google potrebbero funzionare, a condizione che i loro risultati siano chiaramente contrassegnati come generati dall’intelligenza artificiale. L’AI Act obbliga tutti i paesi dell’Unione a istituire agenzie nazionali che supervisionano l’intelligenza artificiale.
Inoltre, la Commissione nazionale per l’informatica e le libertà (CNIL) ha pubblicato alcune linee guida per l’utilizzo dell’IA nel rispetto dei dati personali. Queste linee guida sono state create per garantire che l’innovazione nell’ambito dell’IA sia responsabile e rispetti le persone.
In sintesi, queste nuove agenzie sono importanti perché garantiscono che lo sviluppo dell’IA sia responsabile e rispetti le persone. La creazione di queste agenzie è un passo avanti verso un utilizzo consapevole e sicuro dell’intelligenza artificiale.