È stata una settimana intensa per coloro che seguono gli sviluppi nel campo della governance dell’intelligenza artificiale.
Il 30 ottobre è stato pubblicato l’atteso “executive order” di Biden sull’Intelligenza Artificiale. L’ordine esecutivo del presidente Biden mira a garantire la sicurezza, la protezione e la fiducia nell’uso dell’IA. Inoltre, il G7 ha emesso un codice di condotta e le Nazioni Unite hanno nominato un nuovo comitato consultivo sull’Intelligenza Artificiale.
il Regno Unito ha ospitato il vertice sulla sicurezza dell’intelligenza artificiale, emettendo la dichiarazione di Bletchley Park.
In parallelo con questi sviluppi, l’IAPP ospita la sua prima AI Governance Global a Boston, Massachusetts, una conferenza unica nel suo genere incentrata sulla professionalizzazione della governance dell’IA.
lo stesso giorno in cui il presidente Biden ha emesso l’ordine esecutivo sull’IA, le parti del processo di Hiroshima hanno anche pubblicato i loro 11 principi guida internazionali
Il Futuro della Politica sull’Intelligenza Artificiale negli Stati Uniti
L’approccio dell’amministrazione Biden all’IA
L’Amministrazione Biden ha recentemente emesso un ordine esecutivo che segna un punto di svolta nella politica degli Stati Uniti sull’intelligenza artificiale (IA). L’ordine esecutivo adotta il principio dell'”innovazione responsabile” e presenta punti cruciali che avranno un impatto decisamente rilevante nell’immediato futuro.
Visione e Posizione Strategica degli Stati Uniti
L’ordine esecutivo degli Stati Uniti fornisce una visione dettagliata della posizione politica e strategica del paese riguardo alla creazione, diffusione e utilizzo dei modelli di intelligenza artificiale (IA).
L’approccio adottato è basato sull’innovazione responsabile, con particolare attenzione alla sicurezza e alla privacy dei cittadini, all’equità sociale e alla promozione dell’innovazione e della concorrenza.
La visione di affrontare una sfida globale si riflette anche nella cooperazione mirata all’espansione di accordi bilaterali e multilaterali nel campo dell’IA, inclusa la tutela delle infrastrutture sensibili. Il Dipartimento di Stato coordinerà lo sviluppo in tal senso in collaborazione con il Dipartimento del Commercio.
Innovazione Responsabile e Condivisione delle Informazioni
Come parte di un approccio volto a garantire la sicurezza e l’affidabilità dei sistemi di intelligenza artificiale (IA), l’ordine richiede che gli sviluppatori condividano i risultati dei loro test di sicurezza e altre informazioni critiche con il governo degli Stati Uniti.
Questa disposizione è stata sviluppata ai sensi del Defense Production Act e rappresenta una sfida per le grandi imprese, poiché il controllo dello stato sugli asset industriali è visto con estremo sfavore.
Inoltre, il Defense Production Act è un sistema di intervento agitato nei momenti di crisi produttiva ed è stato implementato solo grazie alle contingenze emergenziali, come la recente produzione di vaccini Covid-19.
Trasparenza e Frodi
L’ordine esecutivo richiede maggiore trasparenza per proteggere gli americani dalle frodi che possono essere commesse attraverso l’uso ingannevole dell’IA. Questo include l’istituzione di standard e migliori pratiche per rilevare i contenuti generati dall’IA e per autenticare i contenuti ufficiali del governo.
Nel dibattito riguardante la diffusione delle notizie false e la necessità di prevenire truffe e manipolazioni, il Dipartimento del Commercio degli Stati Uniti è stato invece investito dell’importante compito di sviluppare una guida tecnica mirata.
Tale guida avrà l’obiettivo di garantire l’autenticità dei contenuti generati dall’Intelligenza Artificiale.
In risposta alla crescente preoccupazione per la diffusione di notizie false e frodi, le istituzioni di vertice americane stanno adottando modelli e software basati sull’Intelligenza Artificiale per garantire che le comunicazioni governative siano autentiche e verificabili.
Questa pratica ha spinto la necessità di predisporre un’indicazione chiara dell’origine dei contenuti prodotti, suscitando l’interesse di content creators, artisti ed editori.
La guida fornirà quindi un utile strumento per garantire la trasparenza nell’ambito della produzione di contenuti.
Decentralizzazione del Controllo sull’IA
A differenza dell’approccio europeo, che prevede la creazione di un’autorità ad hoc di coordinamento, l’ordine esecutivo degli Stati Uniti specifica che ogni dipartimento governativo sarà responsabile della supervisione dell’uso responsabile e sicuro dell’IA nel proprio settore.
Cybersecurity e Materiali Biologici Pericolosi
L’ordine esecutivo richiede una gestione responsabile dell’Intelligenza Artificiale (IA) nella progettazione di materiali biologici pericolosi, nonché la creazione di un programma di cybersecurity avanzato per individuare e correggere le vulnerabilità nei software critici.
Inoltre, viene istituito un programma specifico per la sicurezza informatica al fine di rafforzare ulteriormente i sistemi di protezione.
Il National Security Memorandum, supervisionato dal National Security Council e dal Capo dello Staff della Casa Bianca, garantisce l’utilizzo etico e protetto dell’IA anche da parte delle forze militari e dei servizi segreti statunitensi.
No alle discriminazioni
Uno dei principali problemi correlati all’Intelligenza Artificiale è la presenza di bias cognitivi, che possono portare a discriminazioni in settori fondamentali come la giustizia, la sanità e l’edilizia residenziale.
È fondamentale promuovere lo sviluppo di best practices nell’utilizzo dell’IA nel contesto giuridico-processuale al fine di evitare l’applicazione ingiusta basata sull’origine geografica o sull’appartenenza etnica di un individuo. Questo è particolarmente importante per garantire un trattamento equo e imparziale a tutte le persone coinvolte in tali settori.
La tutela ai consumatori, pazienti clinici e studenti
Le azioni di tutela dei consumatori, dei pazienti clinici e degli studenti prevedono che il Dipartimento della Salute e dei Servizi Umani riceva rapporti sull’uso non sicuro o dannoso di pratiche mediche che coinvolgono l’IA e proponga soluzioni adeguate.
Nel campo scolastico, si sta lavorando allo sviluppo di strumenti di apprendimento basati su modelli di intelligenza artificiale, con l’obiettivo di creare tutor personalizzati in grado di soddisfare le esigenze educative degli studenti in modo mirato.
La tutela dei lavoratori
Uno dei temi centrali legati allo sviluppo dell’Intelligenza Artificiale Generativa è la sua inevitabile impatto sul mercato del lavoro.
Molti settori, come il doppiaggio, la traduzione, il customer service e la correzione di bozze, potrebbero essere sostituiti da modelli di IA. Ciò potrebbe portare a una significativa riduzione delle opportunità lavorative in tali settori.
Tuttavia, l’Executive Order prevede che le valutazioni professionali non dovrebbero essere influenzate da bias. Inoltre, l’integrazione dell’AI nel settore produttivo potrebbe essere un motore di sviluppo economico e sociale anziché rappresentare un elemento di concorrenza al ribasso salariale.
Per garantire il supporto a tutti i settori che subiranno una significativa riduzione delle opportunità lavorative, sono previste azioni dirette.
Promuovere innovazione e competizione
Il National AI Research Resource è uno strumento che permette ai ricercatori e agli studenti di accedere direttamente alle risorse e ai dati in materia di Intelligenza Artificiale.
Grazie anche ai finanziamenti diretti, è possibile sviluppare metodologie di ricerca avanzate nei campi della salute e del cambiamento climatico. Inoltre, sono previste misure per mettere a disposizione di piccoli sviluppatori e imprenditori assistenza tecnica e risorse. La Federal Trade Commission sarà a disposizione per supportare la commercializzazione delle ultime scoperte da parte delle piccole imprese.
Un Approccio Olistico
L’amministrazione Biden sta adottando un approccio olistico per la definizione della politica sull’IA. Questo approccio tiene conto sia dei benefici che dei rischi dell’IA, che si estendono a tutti i settori industriali e oltre i confini nazionali.
In conclusione
L’ordine esecutivo sull’IA dell’amministrazione Biden rappresenta un passo significativo verso l’innovazione responsabile. Con un equilibrio tra sicurezza, privacy, equità sociale e promozione dell’innovazione, l’ordine esecutivo offre una visione ampia e dettagliata su come l’IA dovrebbe essere utilizzata e regolamentata negli Stati Uniti.
Tre punti chiave per un ecosistema di responsabilità dell’IA
- Accesso alle informazioni e trasparenza del sistema di IA: Questo è fondamentale, nonostante le sfide presentate dalla complessità tecnica dell’IA.
- Valutazione indipendente: Ci saranno circostanze in cui le valutazioni di terzi saranno fondamentali.
- Consequenze quando il sistema non funziona come previsto: Queste potrebbero includere conseguenze di mercato o responsabilità legale.
Ostacoli all’ecosistema di responsabilità dell’IA
Creare un ecosistema di responsabilità per l’IA presenta diverse sfide, tra cui la comunicazione efficace della funzionalità di sistemi complessi e la necessità di revisori adeguatamente formati e dotati di risorse.
La necessità di una forza lavoro adeguata
Una forza lavoro che sostenga un ecosistema di IA responsabile sarà cruciale. Questa forza lavoro dovrà provenire da diverse fonti, tra cui aziende, revisori indipendenti di terze parti e regolatori governativi.
L’amministrazione Biden riconosce questa necessità e sta cercando di sostenere la formazione ed educazione attraverso vari percorsi, tra cui investimenti in organizzazioni come la National Science Foundation.
La Casa Bianca ha intrapreso un’azione esecutiva, con l’ordinanza di questa settimana e la relativa bozza di linee guida politiche dell’Ufficio di gestione e bilancio. Questo approccio mira a guidare come le agenzie federali utilizzano e sfruttano l’intelligenza artificiale.
La Casa Bianca ha recentemente sollecitato il Congresso degli Stati Uniti a promulgare una legislazione bipartisan sull’Intelligenza Artificiale (IA) al fine di garantire una regolamentazione equa e bilanciata che tuteli sia i consumatori che le imprese.
Inoltre, la Casa Bianca ha sottolineato l’importanza della collaborazione con i partner internazionali, tra cui il G7, e ha invitato il Congresso a sottoscrivere la Dichiarazione di Bletchley Park.
Collaborazione internazionale
Parallelamente alle iniziative interne, la Casa Bianca sta cercando di collaborare con i partner internazionali, incluso il G7. Questo include la sottoscrizione della Dichiarazione di Bletchley Park, un impegno internazionale per lo sviluppo responsabile e l’uso dell’IA.
Iniziative della National Telecommunications and Information Administration (NTIA)
La National Telecommunications and Information Administration (NTIA) ha sollecitato commenti pubblici all’inizio di quest’anno riguardo alla responsabilità dell’Intelligenza Artificiale (IA).
L’amministratore associato per l’analisi delle politiche e lo sviluppo della NTIA, Russell Hanser, ha dichiarato che l’agenzia ha ricevuto oltre 1.400 commenti tra aprile e giugno, dimostrando un grande interesse pubblico sull’argomento.
La sicurezza dovrà essere garantita tramite gli standard introdotti dal National Institute of Standards and Technology, mentre il Ministero dell’Energia ed Homeland Security, corrispondente al nostro Ministero dell’Interno, avranno competenze in merito alle potenziali minacce mosse alle infrastrutture critiche.
Trasparenza e accesso alle informazioni
L’accesso alle informazioni e la trasparenza del sistema di intelligenza artificiale sono fondamentali.
Nonostante la complessità tecnica e matematica degli algoritmi dell’IA, è necessario un maggiore accesso alle informazioni.
La trasparenza facilita anche la definizione degli standard e delle norme riguardanti le informazioni fornite sui modelli, rendendo più semplice per i consumatori e i politici comprendere le funzionalità e i limiti di un sistema.
Consequenze per i fallimenti del sistema
Quando un sistema di IA non funziona come previsto, deve esserci una sorta di conseguenza. Queste potrebbero essere conseguenze di mercato, con i consumatori che scelgono concorrenti basandosi su valutazioni indipendenti, o potrebbero essere conseguenze legali, come la responsabilità obbligatoria o un regime normativo.
Ostacoli all’ecosistema di responsabilità dell’IA
Esistono ostacoli alla creazione di un ecosistema di responsabilità per l’IA.
Ad esempio, data la complessità dei sistemi di IA, come possono le aziende comunicare efficacemente ai consumatori e ai legislatori il funzionamento di un sistema in modo comprensibile? Questa è una delle sfide che dovranno essere affrontate per realizzare un ecosistema di responsabilità efficace per l’IA.
C’è anche una significativa necessità di revisori adeguatamente formati e dotati di risorse e potenza di calcolo. Hanser ha affermato: “La nostra sensazione è che avremo bisogno di investimenti governativi qui”, sottolineando anche che “vedremo una serie di posti di lavoro altamente nascenti”.
L’Influenza della Fed sulle Politiche dell’Intelligenza Artificiale
L’ordine esecutivo della Casa Bianca, sebbene rivolto principalmente alle agenzie federali, avrà un impatto significativo sul settore privato. Le linee guida dell’Ufficio di Gestione e Bilancio (OMB) richiedono che le agenzie federali seguano le disposizioni che integrano i sistemi di intelligenza artificiale, spesso costruiti e forniti da società private.
Gran parte dell’ordine esecutivo emanato dalla Casa Bianca riguarda le agenzie federali e il loro utilizzo di tecnologie di intelligenza artificiale. Le agenzie federali saranno tenute a seguire le linee guida dell’OMB per l’integrazione dei sistemi di intelligenza artificiale, spesso sviluppati e forniti da aziende private.
Ciò significa che le agenzie governative dovranno assumere esperti per gestire il cambiamento e non essere governate da esso.
Per quanto riguarda la formazione interna dell’amministrazione, il Presidente prevede una formazione diretta per gli impiegati di ogni livello nei campi di interesse, accelerando anche l’assunzione di professionisti nel campo dell’IA, seguendo la direzione di U.S. Digital Service, U.S. Digital Corps e Presidential Innovation Fellowship.
Tuttavia, ci sono anche aiuti e agevolazioni previste per le aziende, che potranno sfruttare il terreno fertile degli Stati Uniti per crescere e scalare rapidamente il mercato.
E la privacy?
Come indicato nell’executive order, l’uso dell’Intelligenza Artificiale (AI) comporta un rischio crescente per la privacy dei cittadini, soprattutto in relazione all’addestramento dei grandi modelli di linguaggio delle AI generative.
Questi sistemi possono facilmente estrarre dati personali a proprio vantaggio, causando conseguenze negative per i cittadini americani, se non sono presenti adeguate misure di sicurezza. Per questo motivo, il presidente Biden sottolinea l’importanza di adottare e sviluppare tecnologie che consentano l’uso dei dati garantendo la massima protezione della privacy.
Nell’ambito della tutela della privacy, l’Ordine Esecutivo firmato dal Presidente Biden prevede l’adozione di una legge bipartisan che ponga l’accento sulla prevenzione attraverso lo sviluppo di metodologie che proteggano i dati personali fin dall’inizio, senza interferire con il processo di addestramento dei modelli di intelligenza artificiale.
Inoltre, l’Ordine prevede un’analisi approfondita delle modalità di commercializzazione dei dati, considerati una risorsa di crescente importanza economica, al fine di garantire il rispetto degli standard etici e legali e la preservazione della privacy dei cittadini.
Questo modello di “privacy-preserving” rappresenta un notevole passo avanti per gli Stati Uniti, che in questo campo sono stati largamente anticipati dall’Unione Europea.
L’approccio statunitense punta alla salvaguardia della privacy degli americani incoraggiando il Congresso ad approvare una legislazione sulla privacy dei dati e la formulazione di standard per il rilevamento dei contenuti generati dall’intelligenza artificiale.
L’executive order Usa e l’AI Act
La differenza di approccio tra Stati Uniti ed Europa riguardo all’Intelligenza Artificiale è un tema di grande importanza. Attualmente, in Europa si sta discutendo una proposta di legge sull’IA che adotta un approccio basato sul rischio, ma definisce in modo più circoscritto le applicazioni ad alto rischio.
Questa proposta di legge mira a proteggere i cittadini europei da potenziali rischi derivanti dall’utilizzo dell’IA. Al contrario, l’approccio statunitense adotta un approccio più completo, che comprende una gamma più ampia di applicazioni di intelligenza artificiale, ma manca di un’attenzione specifica all’alto rischio presente nella proposta dell’UE.
Al contrario, negli Stati Uniti, l’approccio è più completo e comprende un’ampia gamma di applicazioni di intelligenza artificiale, ma manca di una specifica attenzione all’alto rischio presente nella proposta dell’UE.
L’Unione Europea adotta un approccio orientato alla conformità per quanto riguarda l’aspetto legislativo dell’intelligenza artificiale. Ciò significa che l’IA ad alto rischio deve passare attraverso un processo di valutazione di conformità obbligatoria e di approvazione. L’UE impone anche restrizioni rigorose su determinati usi dell’IA, tra cui la classificazione sociale e il riconoscimento facciale.
L’Executive Order degli Stati Uniti si basa principalmente sulla cooperazione volontaria con le autorità governative, insieme all’attenzione per lo sviluppo di standard di sicurezza per l’Intelligenza Artificiale. L’obiettivo è garantire la sicurezza, la protezione e l’affidabilità dei sistemi di Intelligenza Artificiale, senza però vietare specificamente l’utilizzo di applicazioni come la classificazione sociale o il riconoscimento facciale
Sulla ricerca e sviluppo l’AI Act dell’UE assume una posizione attribuendo una maggiore enfasi alla conformità normativa.
Nel provvedimento governativo USA si sottolinea invece l’importanza della ricerca e dello sviluppo dei talenti, promuovendo attivamente l’innovazione e la ricerca sull’intelligenza artificiale in vari settori, come ad esempio la sanità e il cambiamento climatico.
Un altro tema sul quale le posizioni divergono è quello delle privacy e dei dati.
La legge UE sull’intelligenza artificiale si concentra sulla salvaguardia dei diritti fondamentali, inclusa la privacy, e stabilisce chiari divieti sulle pratiche di intelligenza artificiale intrusive e discriminatorie, basandosi specificamente sul GDPR.
L’approccio statunitense punta alla salvaguardia della privacy degli americani incoraggiando il Congresso ad approvare una legislazione sulla privacy dei dati e la formulazione di standard per il rilevamento dei contenuti generati dall’intelligenza artificiale.
Anche sul tema della proprietà intellettuale e soprattutto del copyright l’executive order americano resta abbastanza vago e blando, rinviando alle autorità preposte alcune delle questioni inerenti la protezione dei diritti di proprietà intellettuale e dei potenziali abusi. A differenza dell’AI Act che, pur non facendo espressamente riferimento al copyright, prevede, all’art.28(b) alcune regole di trasparenza per i modelli di base che devono poi essere lette in congiunzione con gli articoli 3 e 4 della Direttiva Copyright.
Conclusione
Come previsto, negli Stati Uniti si sta adottando un approccio che favorisce lo sviluppo delle piattaforme di AI generativa attraverso l’autoregolamentazione del mercato e decisioni giudiziarie in materia di protezione dei diritti, invece che una regolamentazione preventiva.
Il summit a Londra
2 novembre 2023, a Bletchley Park, si sono riuniti leader mondiali e del settore dell’Intelligenza Artificiale (IA), fondandosi sulla Dichiarazione di Bletchley formulata dai paesi partecipanti al vertice sulla sicurezza dell’IA del 1-2 novembre 2023. I rappresentanti di Australia, Canada, Unione Europea, Francia, Germania, Italia, Giappone, Repubblica di Corea, Singapore, Stati Uniti d’America e Regno Unito, insieme ai leader di Amazon Web Services, Anthropic, Google, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI e Open AI hanno sottolineato l’importanza di unire le forze tra governi e sviluppatori di IA per collaborare sui test della prossima generazione di modelli di IA. Questi test mirano a valutare una serie di rischi critici per la sicurezza nazionale, l’incolumità pubblica e la società nel suo complesso.
L’IA in generale, e in particolare l’IA di frontiera, è stata riconosciuta come una tecnologia potente che ha un grande potenziale per influenzare positivamente l’economia e la società.
I governi hanno pianificato di:
- Collaborare per sviluppare le migliori pratiche in questo campo emergente.
- Esaminare le possibilità di scambio di competenze e distacco per migliorare ulteriormente le capacità nel settore della sicurezza dell’IA.
- Stabilire accordi di collaborazione nella ricerca per promuovere l’eccellenza nello sviluppo della scienza e delle tecniche di sicurezza dell’IA.
- Lavorare verso metodologie di test condivise e sviluppare norme condivise in questo settore nel tempo opportuno.
Come parte di questo sforzo collaborativo, il Regno Unito, in qualità di presidente del vertice sulla sicurezza dell’IA dell’1-2 novembre 2023, ha inaugurato l’AI Safety Institute.
L’obiettivo del rapporto sullo stato dell’arte è facilitare una comprensione condivisa e scientifica dei rischi associati all’intelligenza artificiale avanzata e sostenere tale comprensione man mano che le capacità continuano a crescere. Il rapporto si concentrerà sulle ultime e più avanzate ricerche sui rischi e le capacità dei modelli di intelligenza artificiale avanzata.
Invece di generare nuovo materiale, il rapporto riassumerà la migliore ricerca esistente e identificherà le aree prioritarie di ricerca, fornendo una sintesi delle conoscenze attuali sui rischi dell’IA avanzata. Non fornirà consigli politici o normativi, ma servirà piuttosto a guidare il processo decisionale a livello sia internazionale che nazionale.
Il rapporto sarà pubblicato prima del prossimo vertice sulla sicurezza dell’intelligenza artificiale. Concentrandosi sull’IA avanzata, il rapporto mira anche a contribuire a informare e integrare altre iniziative internazionali, come quelle guidate dalle Nazioni Unite, dall’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) e dalla Global Partnership for AI (GPAI). La sua analisi informerà le attività del gruppo consultivo sull’intelligenza artificiale delle Nazioni Unite.
In qualità di paese ospitante del vertice sulla sicurezza dell’intelligenza artificiale, il Regno Unito fornirà supporto al segretariato per assistere la presidenza e il gruppo di esperti.
1. Il summit mondiale a Londra sull’AI: Che cos’è la Bletchley Declaration
Il 1 novembre si è tenuto il Summit di Londra, al quale hanno partecipato 28 stati, tra cui Stati Uniti, Unione Europea, Cina e Regno Unito. Durante l’evento, i paesi presenti hanno firmato una Dichiarazione congiunta per discutere dei rischi e delle opportunità dell’Intelligenza Artificiale.
In particolare, hanno concordato di promuovere la creazione di un rapporto globale, indipendente e inclusivo sullo “stato dell’arte” delle capacità e dei rischi dell’intelligenza artificiale avanzata.
Questo accordo rappresenta l’impegno assunto dai paesi nella Dichiarazione di Bletchley del 1° novembre 2023 per la cooperazione internazionale e la costruzione di una comprensione scientifica condivisa e basata su prove dei rischi dell’IA avanzata.
2. Il Ruolo del Primo Ministro Britannico, Rishi Sunak
Il Primo Ministro britannico, Rishi Sunak, ha annunciato un accordo storico con le aziende del settore IA durante la conferenza stampa finale dell’AI Safety Summit, tenutosi a Bletchley Park, vicino Londra.
L’AI Safety Institute del Regno Unito si impegna nella creazione di un proprio processo di valutazione in tempo utile per valutare la prossima generazione di modelli, inclusi quelli che verranno implementati nel prossimo anno. Inoltre, l’AI Safety Institute del Regno Unito collaborerà con altri paesi per sviluppare le proprie capacità e facilitare la cooperazione tra i governi.
L’accordo prevede la creazione di un meccanismo di verifica della sicurezza dei nuovi modelli di intelligenza artificiale prima della loro messa in commercio, al fine di garantirne l’affidabilità e la sicurezza.
Questo rappresenta un importante passo avanti per il settore dell’IA, in quanto consentirà di prevenire potenziali rischi per la sicurezza e di aumentare la fiducia dei consumatori nei confronti di questa tecnologia. I partecipanti hanno sottolineato il vantaggio reciproco della collaborazione internazionale che queste iniziative promuoveranno per la valutazione esterna dei sistemi di IA di frontiera rispetto a una serie di rischi per la sicurezza nazionale, l’incolumità e la società prima della loro implementazione.
3. L’Importanza della Sicurezza nell’IA
Sunak ha sottolineato l’importanza della sicurezza nell’uso dell’IA. Ha affermato che le persone dovrebbero essere rassicurate da questo accordo, che mira a garantire la sicurezza dei nuovi modelli di IA.
4. Il Futuro dell’AI Safety Institute
La prima pietra miliare per l’AI Safety Institute del Regno Unito sarà costruire il suo processo di valutazione in tempo per valutare la prossima generazione di modelli di IA, compresi quelli che saranno distribuiti l’anno prossimo.
5. La Collaborazione Internazionale
L’AI Safety Institute collaborerà con altri paesi per sviluppare le proprie capacità e facilitare la collaborazione tra i governi. Questo è un passo importante verso un approccio globale alla sicurezza dell’IA.
6. La Dichiarazione di Bletchley
Il primo vertice mondiale sull’intelligenza artificiale a Bletchley Park ha portato alla firma della “dichiarazione di Bletchley”. Questa dichiarazione, firmata dall’UE e 28 Paesi rappresentati al vertice, sottolinea l’urgenza di comprendere e gestire collettivamente i potenziali rischi dell’IA.
“L’Intelligenza Artificiale (IA) offre immense opportunità globali, ma deve essere progettata, sviluppata, distribuita e utilizzata in modo responsabile e incentrata sull’uomo. La comunità internazionale dovrebbe cooperare sull’IA per promuovere una crescita economica inclusiva, lo sviluppo sostenibile, l’innovazione, i diritti umani e la fiducia del pubblico nei sistemi di IA. I sistemi di IA vengono impiegati in diversi ambiti, tra cui l’occupazione, i trasporti, l’istruzione, la salute, l’accessibilità e la giustizia. Poiché i sistemi di IA vengono impiegati in vari settori è fondamentale affrontare i rischi potenziali, come i diritti umani, la trasparenza, l’equità, la responsabilità, la regolamentazione, la sicurezza, l’adeguata supervisione umana, l’etica, l’attenuazione dei pregiudizi, la privacy e la protezione dei dati”.
“I rischi per la sicurezza sorgono alla frontiera dell’IA, che comprende modelli generici altamente capaci e modelli specifici di IA ristretti che potrebbero causare danni. Questi rischi sono particolarmente preoccupanti in settori come la sicurezza informatica e la biotecnologia, dove i sistemi di IA di frontiera possono amplificare rischi come la disinformazione”.
7. Il ruolo dell’Italia
Il tema della sicurezza dell’IA sarà centrale per la Presidenza italiana del G7 del prossimo anno, come confermato da Meloni in un incontro con Sunak. Il Presidente del Consiglio, Giorgia Meloni ha confermato che l’Intelligenza artificiale sarà uno dei temi al centro della Presidenza italiana del G7 del prossimo anno.
8. L’Impegno per uno Sviluppo Responsabile dell’IA
I Paesi firmatari della dichiarazione di Bletchley si sono impegnati a garantire uno sviluppo e un utilizzo responsabile della nuova tecnologia. Questo rappresenta un importante passo avanti per la gestione dei rischi legati all’intelligenza artificiale a livello globale.
Scopo di questa comunione di intenti sarà quello di:
- Identificare i rischi per la sicurezza dell’Intelligenza Artificiale (IA) è di fondamentale importanza per garantire una comprensione condivisa di tali rischi, basata su dati scientifici. Questo ci permette di sostenere tale comprensione man mano che le capacità dell’IA continuano ad aumentare.
- È importante identificare i pericoli per la sicurezza dell’IA che sono di interesse comune, costruendo una comprensione scientifica basata su prove di tali rischi e mantenendola aggiornata al passo con l’evoluzione delle capacità. Questo processo avviene all’interno di un approccio globale più ampio per comprendere l’impatto dell’IA nella nostra società.
- Per garantire la sicurezza in relazione ai rischi associati, è importante sviluppare politiche basate sul rischio nei nostri Paesi. Ciò significa che si dovrebbe valutare il livello di rischio associato a determinati pericoli e sviluppare politiche e procedure di sicurezza in base a tali valutazioni. Inoltre, è essenziale collaborare se necessario e riconoscere che gli approcci possono differire in base alle circostanze nazionali e ai quadri giuridici applicabili.
- Questo implica anche una maggiore trasparenza da parte delle entità private che sviluppano capacità avanzate di intelligenza artificiale, parametri di valutazione adeguati, strumenti per test di sicurezza e lo sviluppo di competenze pertinenti nel settore pubblico e nella ricerca scientifica.
- In sintesi, per garantire la sicurezza alla luce di tali pericoli, è necessario sviluppare politiche basate sui rischi in tutti i nostri paesi, collaborando in modo appropriato e riconoscendo che i nostri approcci possono variare a seconda delle circostanze nazionali e dei quadri giuridici applicabili.
- Questo implica l’adozione di misure come una maggiore trasparenza da parte degli attori privati che sviluppano capacità di IA di frontiera, l’utilizzo di metriche di valutazione adeguate, la disponibilità di strumenti per la verifica della sicurezza e lo sviluppo di capacità e ricerca scientifica del settore pubblico.
Si tratta, senza dubbio, di un passo avanti importante ma non bisogna dimenticare che esistono diversi gruppi di lavoro internazionali come l’OECD, il Consiglio d’Europa, il G7, le Nazioni Unite, che hanno già pubblicato ben più che qualche dichiarazione di buone intenzioni.
Il report “Lo Stato della Scienza”
Il Summit sulla Sicurezza dell’IA ha prodotto un rapporto internazionale, indipendente e inclusivo sullo “Stato della scienza” in merito alle capacità e ai rischi dell’IA di frontiera. Il rapporto è stato supervisionato da Yoshua Bengio, un accademico dell’IA vincitore del premio Turing e membro del comitato consultivo scientifico delle Nazioni Unite.
Il Regno Unito ha nominato Bengio per guidare il rapporto in quanto ospite del Summit. Bengio sarà supportato da un gruppo diversificato di eminenti accademici nel campo dell’intelligenza artificiale, che avranno una vasta gamma di competenze necessarie. Inoltre, un gruppo consultivo di esperti formati da rappresentanti dei paesi partecipanti al vertice e da altri paesi partner lo assisterà.
Il rapporto sarà pubblicato prima del prossimo vertice sulla sicurezza dell’IA e si concentrerà sull’IA di frontiera per informare e integrare altre iniziative internazionali, come quelle guidate dalle Nazioni Unite, dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE) e dal Partenariato globale per l’IA (GPAI).
L’analisi del rapporto informerà anche l’attività dell’organo consultivo sull’intelligenza artificiale delle Nazioni Unite.
I paesi firmatari
- Australia
- Brasile
- Canada
- Cile
- Cina
- Unione europea
- Francia
- Germania
- India
- Indonesia
- Irlanda
- Israele
- Italia
- Giappone
- Kenya
- Regno dell’Arabia Saudita
- Paesi Bassi
- Nigeria
- Le Filippine
- Repubblica di Corea
- Ruanda
- Singapore
- Spagna
- Svizzera
- Türkiye
- Ucraina
- Emirati Arabi Unit
- Regno Unito di Gran Bretagna e Irlanda del Nord
- Stati Uniti d’America
Il G7 e gli 11 punti di Hiroshima
I leader dei sette paesi più industrializzati del mondo, noti come G7, hanno recentemente approvato un codice di condotta volontario in 11 punti chiamato “AI Process Comprehensive Policy Framework”, che fornisce una guida per le aziende che sviluppano sistemi avanzati di intelligenza artificiale.
L’obiettivo del codice è quello di promuovere l’adozione di un’intelligenza artificiale sicura, protetta e affidabile a livello mondiale.
I Principi guida internazionali per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale sono stati creati con lo scopo di fornire una guida per le organizzazioni che sviluppano e utilizzano i sistemi di intelligenza artificiale più avanzati, compresi i modelli di base più avanzati e i sistemi di intelligenza artificiale generativa.
Il G7 ha anche concordato 11 principi guida internazionali sull’utilizzo dell’intelligenza artificiale, con l’intento di aiutare a cogliere i vantaggi e ad affrontare i rischi e le sfide poste da queste tecnologie.
Il codice intende incoraggiare le aziende ad adottare misure appropriate per identificare, valutare e mitigare i rischi legati all’utilizzo dell’IA, nonché ad affrontare gli incidenti e i modelli di uso improprio dopo che i prodotti di IA sono stati immessi sul mercato.
Le aziende dovrebbero anche pubblicare rapporti pubblici sulle capacità, le limitazioni, l’uso e l’abuso dei sistemi di IA e investire in solidi controlli di sicurezza.
I paesi aderenti al G7 utilizzeranno il codice di condotta come punto di riferimento per la gestione dell’IA.
Tali iniziative rappresentano un passo importante verso una regolamentazione globale dell’IA e la definizione di standard etici e di sicurezza.
È necessario adottare misure adeguate durante l’intero processo di sviluppo e diffusione dei sistemi avanzati di intelligenza artificiale al fine di individuare, valutare e mitigare i rischi associati all’utilizzo di questi sistemi.
Ciò include l’impiego di misure di test interni ed esterni indipendenti, come il red-teaming, per identificare le vulnerabilità e l’implementazione di un’adeguata mitigazione per affrontare i rischi individuati. Inoltre, gli sviluppatori dovrebbero garantire la tracciabilità dei dati, dei processi e delle decisioni prese durante lo sviluppo del sistema.
L’obiettivo è garantire l’affidabilità, la sicurezza e la protezione dei sistemi durante tutto il loro ciclo di vita, in modo che non comportino rischi irragionevoli.
Parliamo della implementazione di misure adeguate per l’inserimento e la protezione dei dati personali e della proprietà intellettuale. Le organizzazioni sono incoraggiate ad adottare misure adeguate per gestire la qualità dei dati, inclusi i dati di formazione e la raccolta dei dati, al fine di ridurre i pregiudizi dannosi.
Secondo questi principi, è anche importante garantire la trasparenza dei set di dati relativi alla formazione e le organizzazioni devono rispettare le normative legali applicabili.
2. Modelli di utilizzo improprio, inclusi quelli introdotti sul mercato. Tale categoria di prodotti rappresenta un rischio per la sicurezza e la salute dei consumatori.
Le organizzazioni dovrebbero considerare l’utilizzo di sistemi di intelligenza artificiale in base al livello di rischio e monitorare costantemente la presenza di vulnerabilità, incidenti, rischi emergenti e usi impropri dopo l’implementazione. Inoltre, è importante adottare le azioni appropriate per affrontare tali problemi.
Le organizzazioni sono incoraggiate a facilitare l’individuazione e la segnalazione di problemi e vulnerabilità da parte di terzi e utenti dopo la distribuzione, nonché a conservare un’adeguata documentazione degli incidenti segnalati e a mitigare i rischi e le vulnerabilità identificati, in collaborazione con altre parti interessate. Infine, i meccanismi per segnalare le vulnerabilità, ove appropriato, dovrebbero essere accessibili a un insieme diversificato di parti interessate..
3. È importante comunicare pubblicamente le capacità, i limiti e i domini di applicazione dei sistemi di Intelligenza Artificiale, sia per l’uso appropriato che inappropriato. Questo contribuirà ad aumentare la trasparenza e la responsabilità nell’utilizzo di tali sistemi.
Ciò dovrebbe includere la pubblicazione di rapporti sulla trasparenza che contengono informazioni rilevanti per tutte le nuove versioni significative dei sistemi avanzati di intelligenza artificiale.
Le organizzazioni devono rendere le informazioni presenti nei rapporti sulla trasparenza sufficientemente chiare e comprensibili, in modo da consentire agli operatori e agli utenti di interpretare in modo appropriato e pertinente i risultati del modello/sistema e di utilizzarlo in modo adeguato.
Inoltre, i rapporti sulla trasparenza devono essere supportati e basati su una documentazione solida dei processi.
4. È importante lavorare per una condivisione responsabile delle informazioni e la segnalazione degli incidenti tra le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale. Questo dovrebbe coinvolgere non solo l’industria, ma anche i governi, la società civile e il mondo accademico, al fine di garantire un utilizzo sicuro ed etico dell’IA.
Ciò che è importante considerare è la responsabile condivisione delle informazioni relative all’Intelligenza Artificiale.
Queste informazioni possono includere rapporti di valutazione, informazioni sui rischi per la sicurezza e l’incolumità, capacità pericolose, previste o non intenzionali e tentativi degli attori dell’IA di eludere le salvaguardie durante tutto il ciclo di vita dell’IA.
È fondamentale tenere in considerazione tali aspetti per garantire un utilizzo sicuro ed efficace dell’Intelligenza Artificiale.
5. Sviluppare, implementare e divulgare politiche di governance e gestione del rischio in materia di Intelligenza Artificiale (IA), basate su un approccio basato sul rischio, al fine di garantire la sicurezza dei sistemi avanzati di IA.
Queste politiche dovrebbero includere anche misure di mitigazione del rischio, come politiche sulla privacy e altre misure di sicurezza. In particolare, queste politiche sono importanti per le organizzazioni che sviluppano sistemi avanzati di IA, in quanto questi sistemi possono presentare rischi significativi per la sicurezza dei dati e la privacy degli utenti.
Questo implica la condivisione, se opportuno, delle politiche sulla privacy, anche per quanto riguarda i dati personali, i feedback degli utenti e i risultati avanzati del sistema di intelligenza artificiale.
Le organizzazioni dovrebbero stabilire e divulgare le proprie politiche di governance dell’IA e i meccanismi organizzativi per attuare tali politiche in conformità con un approccio basato sul rischio.
Ciò dovrebbe includere processi di responsabilità e governance per valutare e mitigare i rischi, ove possibile, durante l’intero ciclo di vita dell’IA.
6. Effettuare investimenti e implementare controlli di sicurezza robusti per garantire la protezione fisica e informatica durante tutte le fasi del ciclo di vita dell’Intelligenza Artificiale, compresa la difesa dalle minacce interne. La sicurezza dei modelli e degli algoritmi, dei server e dei set di dati è fondamentale per garantire la protezione dei pesi. Per questo motivo, sono necessarie misure di sicurezza operative per proteggere le informazioni e controlli di accesso informatico e fisico adeguati.
7. Per garantire l’affidabilità dell’autenticazione e della provenienza dei contenuti generati dall’Intelligenza Artificiale, è importante sviluppare e implementare meccanismi specifici.
Una possibile soluzione tecnica per garantire la trasparenza e l’affidabilità dei contenuti generati dall’Intelligenza Artificiale (IA) è l’utilizzo di filigrane o di altre tecniche di identificazione.
Gli sviluppatori dovrebbero divulgare pubblicamente le capacità e le limitazioni dei loro modelli, insieme agli ambiti di utilizzo appropriato e inappropriato. Inoltre, per garantire l’autenticità dei contenuti, si richiede l’implementazione di meccanismi di autenticazione come la creazione di filigrane digitali per identificare il testo, le immagini o i video generati dalle intelligenze artificiali.
Le organizzazioni dovrebbero sviluppare strumenti o API per consentire agli utenti di determinare se particolari contenuti sono stati creati con il loro sistema di intelligenza artificiale avanzato, ad esempio tramite filigrane digitali.
8. È importante dare la massima priorità alla ricerca per individuare misure di mitigazione efficaci che possano ridurre i rischi per la società, la sicurezza e la protezione. Solo investendo in queste misure, infatti, si potrà garantire una maggiore sicurezza per tutti.
Ciò include condurre, collaborare e investire in ricerche che supportino il progresso della sicurezza, della protezione e della fiducia nell’intelligenza artificiale e affrontare i rischi principali, nonché investire nello sviluppo di strumenti di mitigazione adeguati.
9. E’ importante focalizzarsi sullo sviluppo di sistemi avanzati di intelligenza artificiale per affrontare le sfide globali come la crisi climatica, la salute globale e l’istruzione. Dare priorità a questo tipo di sviluppo potrebbe portare a soluzioni innovative e sostenibili per i problemi più grandi del mondo.
10. L’obiettivo è quello di incoraggiare l’elaborazione e, se necessario, l’adozione di norme tecniche internazionali al fine di garantire l’armonizzazione delle regole tecniche a livello globale.
Questi sforzi sono intrapresi per promuovere il progresso verso gli obiettivi di sviluppo sostenibile delle Nazioni Unite e per favorire lo sviluppo dell’intelligenza artificiale a beneficio globale.
Le organizzazioni dovrebbero prestare particolare attenzione alla gestione responsabile dell’intelligenza artificiale, garantendo la sua affidabilità e centralità sull’uomo. Inoltre, dovrebbero sostenere iniziative di alfabetizzazione digitale per garantire una diffusione equa e consapevole delle tecnologie digitali.
Ciò implica anche il contributo allo sviluppo e, se opportuno, all’uso di standard tecnici internazionali e delle migliori pratiche, compreso il watermarking, e la collaborazione con le organizzazioni per lo sviluppo degli standard (SDO).
11. Garantire l’implementazione di adeguate misure di sicurezza per la gestione dei dati personali e della proprietà intellettuale, al fine di prevenire accessi non autorizzati e proteggere tali informazioni da eventuali perdite o danni.
Le organizzazioni sono fortemente incoraggiate ad adottare misure adeguate per gestire in modo efficace la qualità dei dati, compresi quelli relativi alla formazione e alla raccolta, al fine di contrastare eventuali pregiudizi dannosi.
È altresì fondamentale garantire una completa trasparenza riguardo ai set di dati sulla formazione, e le organizzazioni devono rispettare scrupolosamente i quadri giuridici applicabili.
I principi guida elaborati dal G7 per la governance responsabile dell’intelligenza artificiale a livello globale comprendono diversi aspetti, tra cui la trasparenza e la responsabilità sociale.
Essi sono stati utilizzati come base per la creazione di un Codice di condotta volontario, che fornisce una guida dettagliata e pratica per le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale.
La presidenza italiana del G7 ha l’obiettivo di arricchire ulteriormente queste linee guida, che sono aperte al contributo di tutti i paesi, del mondo accademico, degli affari e della società civile. In un’epoca in cui l’AI ha un impatto sempre maggiore sulle nostre vite, è fondamentale coinvolgere tutte le componenti della società in questa delicata fase di definizione del perimetro di legalità della nuova tecnologia.
L’obiettivo del G7 è quello di creare uno strumento standard per il monitoraggio e il controllo condiviso dell’intelligenza artificiale (AI), basato principalmente sul rispetto dei diritti umani.
L’uomo rimane al centro del sistema, e sarà fondamentale prevedere i rischi e tracciare i processi decisionali.
La revisione
Entrambi i documenti saranno soggetti a revisione e aggiornamento periodici, anche attraverso consultazioni multilaterali inclusive, per garantire che siano sempre adeguati e reattivi a questa tecnologia in rapida evoluzione.
Le linee guida saranno riviste periodicamente per adattarsi alla rapida evoluzione della tecnologia e in consultazione con le parti interessate. Inoltre, i paesi del G7 stanno accelerando lo sviluppo di un quadro politico per promuovere l’attuazione del processo di Hiroshima, incluso un approccio basato su progetti.
Questo codice di condotta è stato creato per invitare le imprese e le istituzioni del settore a seguirlo e promuovere il rispetto di questa tabella di marcia attraverso la cooperazione e la consultazione con diversi organismi internazionali come il Partenariato globale sull’intelligenza artificiale (GPAI), l’Organizzazione per la cooperazione e lo sviluppo economico (OCSE), attori pubblici e privati e paesi che non fanno parte del G7.
Il G7 ha invitato le organizzazioni che sviluppano sistemi avanzati di intelligenza artificiale ad aderire al Codice di condotta internazionale e i primi firmatari saranno presto annunciati.
I principi enunciati sono di molto generici e non forniscono molte indicazioni pratiche sulle migliori tecniche, sui requisiti minimi e sulle possibili sanzioni in caso di non conformità. Inoltre, non viene menzionato alcun tipo di tecnologia per migliorare la privacy o le misure raccomandate per consentire agli utenti di avere maggior controllo sulla raccolta e il trattamento dei loro dati personali da parte dei sistemi di intelligenza artificiale.
La Commissione Europea ha espresso un parere favorevole riguardo all’accordo raggiunto dal G7 sul codice di condotta per i principi guida internazionali sull’intelligenza artificiale (AI) e sul codice di condotta volontario per gli sviluppatori di intelligenza artificiale, nell’ambito del Processo di Hiroshima sull’intelligenza artificiale.
L’obiettivo comune è quello di promuovere lo sviluppo di sistemi di intelligenza artificiale sicuri e affidabili a livello internazionale, mantenendo sempre l’umanità al centro.
I principi per le aziende e le organizzazioni coinvolte nello sviluppo di sistemi di intelligenza artificiale includono la supervisione di osservatori indipendenti su tutte le fasi del processo di sviluppo e lancio sul mercato, oltre alla garanzia che gli sviluppatori identifichino potenziali rischi di uso improprio e correggano tali vulnerabilità.
La questione dell’intelligenza artificiale è di grande importanza per l’Italia, che assumerà la presidenza del G7 a partire da gennaio 2024 e che prevede di dedicare particolare attenzione a questo tema durante il suo mandato.
La Commissione UE ha annunciato che i principi etici per l’Intelligenza Artificiale (IA) e il codice di condotta volontario saranno integrati a livello internazionale, al fine di completare le norme giuridicamente vincolanti in fase di finalizzazione dall’UE nell’ambito della legge sull’IA.
La presidente della Commissione europea, Ursula von der Leyen, ha sottoscritto la dichiarazione dei leader del G7 rilasciata dalla presidenza giapponese del G7 del 2023.
“I potenziali benefici dell’intelligenza artificiale per i cittadini e per l’economia sono enormi. Tuttavia, l’accelerazione della capacità dell’intelligenza artificiale comporta anche nuove sfide. Già pioniere della regolamentazione con la legge sull’intelligenza artificiale, l’UE sta anche contribuendo ai controlli e alla governance dell’intelligenza artificiale a livello globale. Sono lieta di accogliere i principi guida internazionali del G7 e il codice di condotta volontario, che riflettono i valori dell’UE per promuovere un’IA affidabile. Invito gli sviluppatori di intelligenza artificiale a firmare e attuare questo codice di condotta il prima possibile”.
Conclusione
Ora inizia la fase in cui i principi e le linee guida dovranno essere calati nel mondo reale, con la consapevolezza che sarà complesso trovare un equilibrio duraturo data la portata degli interessi in gioco.
La normazione eccessiva sull’intelligenza artificiale rappresenta un ostacolo significativo al progresso e all’innovazione. Mentre è fondamentale garantire che l’IA sia utilizzata in modo etico e responsabile, è altrettanto importante non soffocare la sua evoluzione con regolamenti troppo restrittivi.
Le normative dovrebbero essere strutturate in modo da favorire l’innovazione, non ostacolarla. L’approccio attuale rischia di rendere l’IA un campo di ricerca e sviluppo troppo costoso per molte organizzazioni, limitando così la diversità e la concorrenza. Inoltre, le norme troppo rigide possono impedire la libera esplorazione di nuove idee e concetti, limitando il potenziale dell’IA.
È necessario un equilibrio tra la protezione dei diritti individuali e l’incoraggiamento del progresso tecnologico. Le normative dovrebbero essere flessibili e adattabili, in grado di evolversi insieme alla tecnologia stessa. Solo in questo modo possiamo sfruttare appieno le potenzialità dell’intelligenza artificiale, senza compromettere i valori etici fondamentali.