Ordine esecutivo di Biden per regolare l’intelligenza artificiale
Il 30 ottobre, il Presidente Joe Biden ha emesso un Decreto Esecutivo che rappresenta un importante passo avanti nella legislazione sull’Intelligenza Artificiale (IA) negli Stati Uniti
Questa decisione arriva dopo mesi di frammentazione normativa, con la California in prima linea.
Il Decreto Esecutivo abbraccia il principio dell'”innovazione responsabile” e presenta punti chiave che avranno un impatto significativo nel prossimo futuro. L’obiettivo è non solo mantenere gli Stati Uniti in prima linea nel campo dell’IA, ma anche garantire che questa tecnologia venga utilizzata in modo responsabile, a vantaggio del pubblico e della sicurezza nazionale.
L’ordine esecutivo è stato annunciato il 31 ottobre 2023.
Il documento è un memorandum per i capi dei dipartimenti esecutivi e delle agenzie, che fornisce linee guida per la gestione dei rischi dell’intelligenza artificiale (AI).
Il memorandum
- incoraggia le agenzie a considerare i potenziali rischi associati all’IA, come gli impatti sulla sicurezza, sui diritti civili, sulla privacy e sui diritti umani, e a promuovere e incorporare le migliori pratiche per la gestione del rischio dell’IA, come quelle delineate nel National Institute of Standards and Technology (NIST)
- delinea le azioni specifiche che le agenzie devono intraprendere, come il completamento di una valutazione dell’impatto dell’IA, la convocazione degli organi di governance dell’IA dell’agenzia e la documentazione dell’implementazione delle pratiche di intelligenza artificiale da parte dell’agenzia.
- sottolinea l’importanza di considerare i potenziali rischi per le comunità svantaggiate e di garantire che i benefici dell’IA superino i rischi e fornisce inoltre linee guida per la qualità e l’adeguatezza dei dati utilizzati nello sviluppo e nei test dell’IA e per informare le persone dell’uso dell’IA che potrebbe influire sui loro diritti o opportunità.
L’obiettivo principale dell’ordine esecutivo è quello di massimizzare l’efficienza delle operazioni governative attraverso l’utilizzo responsabile dell’Intelligenza Artificiale.
Tuttavia, è importante considerare i rischi associati all’uso di questa tecnologia, in particolare per quanto riguarda la sicurezza e i diritti dei cittadini. In questo modo, gli Stati Uniti possono mantenere un ruolo di leadership globale nella gestione dei rischi correlati all’Intelligenza Artificiale.
Il documento introduce nuovi requisiti e direttive per le agenzie riguardo alla gestione, all’innovazione e alla mitigazione dei rischi dell’IA, inclusi specifici protocolli per minimizzare i rischi nell’utilizzo dell’IA che influiscono sui diritti e sulla sicurezza del pubblico.
L’ordine mira a stabilire alcuni punti fermi e standard di sicurezza per lo sviluppo sicuro dell’IA, tenendo conto dei rischi della nuova tecnologia.
Gli standard
la sicurezza e la protezione dell’intelligenza artificiale;
la protezione della privacy degli americani;
la promozione dell’equità e dei diritti civili;
la difesa dei consumatori e dei lavoratori;
la promozione dell’innovazione e della concorrenza;
l’avanzamento della leadership americana nel mondo e altro ancora
L’ordine esecutivo firmato dal Presidente Joe Biden fornisce una guida per la posizione politica e strategica degli Stati Uniti sulla creazione, diffusione e utilizzo dei modelli di intelligenza artificiale.
Premessa
L’intelligenza artificiale sta ottimizzando le operazioni e aumentando l’efficienza in tutto il governo federale, ma è fondamentale che le agenzie la gestiscano in modo appropriato. Di conseguenza, questo memorandum introduce nuovi requisiti e direttive per le agenzie riguardo alla gestione, all’innovazione e alla mitigazione dei rischi dell’IA, inclusi specifici protocolli per minimizzare i rischi nell’utilizzo dell’IA che influiscono sui diritti e sulla sicurezza del pubblico.
Potenziare la gestione dell’IA.
La gestione dei rischi associati all’IA e la promozione dell’innovazione necessitano di una gestione efficace dell’IA.
Come stabilito dall’ordine esecutivo del presidente Biden del 30 ottobre 2023 (l'”Ordine Esecutivo sull’AI”), ogni agenzia deve nominare un Responsabile dell’IA (CAIO) entro 60 giorni dalla data di rilascio di questo memorandum. Il memorandum dettaglia i ruoli, le responsabilità, l’esperienza richiesta, la posizione e le strutture di reportistica per i CAIO delle agenzie. Dal momento che l’intelligenza artificiale è strettamente legata ad altre aree tecniche e politiche, tra cui dati e informazioni, è fondamentale considerare questi collegamenti.
Favorire l’innovazione responsabile nell’ambito dell’intelligenza artificiale.
Se utilizzata in modo responsabile, l’intelligenza artificiale può migliorare l’efficienza delle operazioni dell’amministrazione federale.
L’adozione dell’IA, inclusa l’IA generativa, richiede alle agenzie di acquisire le competenze necessarie per farlo con successo e responsabilità.
Il memorandum richiede che ogni agenzia identificata nel Chief Financial Officer (CFO) Act3 sviluppi una strategia aziendale per l’IA e fornisce anche consigli su come superare gli ostacoli all’uso responsabile dell’IA.
Tra questi ostacoli ci sono le barriere legate all’infrastruttura IT, ai dati, alla sicurezza informatica, alla forza lavoro e alle sfide specifiche dell’IA generativa.
Il National AI Research Resource è una risorsa importante per la ricerca in ambito di Intelligenza Artificiale, che offre ai ricercatori e agli studenti l’accesso diretto a risorse e dati, anche attraverso finanziamenti diretti per lo sviluppo di metodologie di ricerca avanzate nei campi della salute e del cambiamento climatico.
Inoltre, sono previste misure per fornire assistenza tecnica e risorse ai piccoli sviluppatori e imprenditori, con la Federal Trade Commission che fornisce supporto nella commercializzazione delle ultime scoperte da parte delle piccole imprese.
Ci sono anche piani per allentare le restrizioni sull’immigrazione negli Stati Uniti, aprendo le porte agli esperti stranieri per motivi di studio e lavoro, attraverso una modernizzazione dei criteri per l’ottenimento del visto.
Obiettivi e Standard
Il governo degli Stati Uniti richiede ai principali sviluppatori di intelligenza artificiale di condividere i risultati dei test di sicurezza e altre informazioni critiche con il governo prima della loro pubblicazione al pubblico.
L’obiettivo è di definire le azioni da intraprendere per proteggere la popolazione dai potenziali rischi dell’intelligenza artificiale.
Saranno stabiliti standard per garantire l’affidabilità e la sicurezza dell’AI, nonché standard per lo screening della sintesi biologica per impedire che l’AI venga utilizzata per realizzare materiali biologici pericolosi.
Inoltre, verranno adottate misure per proteggere la popolazione stabilendo standard e pratiche che aiutino ad identificare i contenuti creati dall’AI e ad autenticare quelli creati dall’uomo.
Verrà introdotto anche un watermark per etichettare i contenuti AI e si utilizzerà l’AI per identificare e correggere le vulnerabilità dei software.
Infine, verrà sviluppato un National Security Memorandum per garantire l’uso sicuro ed etico dell’AI da parte dei corpi militari e di intelligence USA.
Test e Sicurezza
In base all’ordine esecutivo, il National Institute of Standards and Technology (NIST) stabilirà standard rigorosi per test approfonditi per garantire la sicurezza degli sviluppi di intelligenza artificiale prima del loro rilascio al pubblico.
Il Dipartimento per la sicurezza interna applicherà tali standard ai settori delle infrastrutture critiche e istituirà l’AI Safety and Security Board.
Inoltre, il Defense Production Act richiede che gli sviluppatori di sistemi di intelligenza artificiale condividano i risultati dei loro test e altre informazioni critiche con il governo degli Stati Uniti, come richiesto dal primo punto.
Questo passo è significativo poiché il controllo statale sugli asset industriali è spesso visto con sfavore dalle grandi imprese.
Infatti, nel 2011, il Presidente Obama ha usato il Defense Production Act per obbligare le aziende di telecomunicazioni a riferire sui componenti hardware e software di origine estera, a causa dei timori di spionaggio da parte della Cina.
Contenuti e Proprietà Intellettuale
Il Dipartimento del Commercio degli Stati Uniti sta sviluppando linee guida per l’autenticazione dei contenuti generati dall’intelligenza artificiale e l’uso di filigrane per identificare gli articoli generati dall’IA.
L’obiettivo è quello di prevenire la diffusione di notizie false e manipolazioni, garantendo l’autenticità dei contenuti prodotti attraverso modelli e software basati sull’IA.
L’ordinanza stabilisce inoltre i requisiti per i regolatori della proprietà intellettuale e le forze dell’ordine federali per affrontare l’uso di opere protette da copyright nella formazione sull’intelligenza artificiale.
Protezione della privacy
L’ordine esecutivo si impegna a proteggere la privacy dei cittadini americani accelerando lo sviluppo e l’uso di tecniche di tutela basate sull’AI.
Verranno potenziati gli strumenti crittografici e quelli per la protezione della privacy, mentre verranno sviluppate linee guida per le agenzie federali al fine di valutare l’efficacia delle tecniche di tutela della privacy. Inoltre, saranno valutati i metodi attraverso cui le agenzie raccolgono e utilizzano le informazioni commerciali disponibili.
L’ordine esecutivo prevede l’adozione di una legge bipartisan che metta l’accento sulla prevenzione, attraverso lo sviluppo di metodologie che proteggano i dati personali fin dall’inizio, senza interferire con il processo di addestramento dei modelli di intelligenza artificiale (AI).
Per quanto riguarda la commercializzazione dei dati, considerati una risorsa di crescente importanza economica, l’ordine esecutivo prevede un’approfondita analisi delle modalità con cui tali dati vengono introdotti sul mercato.
Questo processo di valutazione mira a garantire che la commercializzazione dei dati sia rispettosa degli standard etici e legali, preservando la privacy dei cittadini. Il modello di “privacy-preserving” rappresenta un notevole passo avanti per un paese che è stato largamente anticipato dall’Unione Europea su tali questioni.
Nonostante talvolta le politiche europee possano apparire caratterizzate da eccessiva burocrazia e complessità, bisogna ammettere che l’Unione Europea ha dimostrato una leadership indiscutibile nell’affrontare le sfide legate alla privacy. La globalizzazione dei timori, anche grazie all’ordine esecutivo di Biden, contribuisce in modo significativo a ridimensionare le critiche che erano state rivolte alle autorità di vigilanza nazionali, accusate in passato di interventismo eccessivo.
Diritti civili
L’Ordine Esecutivo dell’amministrazione Biden-Harris si impegna a combattere la discriminazione algoritmica e a identificare e perseguire le violazioni dei diritti civili legate all’Intelligenza Artificiale.
Il principale obiettivo è quello di sviluppare le migliori pratiche per l’utilizzo dell’IA nelle sentenze e di evitare il rischio di sviluppare bias cognitivi che possono portare a discriminazioni in settori essenziali come la giustizia, la sanità e l’edilizia residenziale, anche senza la volontà dell’IA.
Per prevenire questo tipo di discriminazioni, l’amministrazione Biden-Harris ha deciso di fornire linee guida anti-discriminazione ai proprietari e ai contractor federali per garantire il diritto alla casa.
Inoltre, nel contesto giuridico-processuale, si promuove lo sviluppo di best practices per l’utilizzo dell’Intelligenza Artificiale in sentenze, procedimenti cautelari, fase preliminare e detenzione, al fine di evitare che l’origine geografica o l’appartenenza etnica di un individuo possano portare a iniquità applicative.
Queste misure sono particolarmente importanti, poiché l’impiego dell’IA sarà esteso oltre il sistema COMPAS e sarà necessario garantire l’equità e i diritti dei cittadini.
Difesa dei consumatori e lavoro
L’Ordine Esecutivo promuove l’utilizzo responsabile dell’Intelligenza Artificiale (AI) nel settore sanitario e nello sviluppo dei farmaci. Inoltre, si intende implementare l’AI nel settore dell’istruzione per migliorare l’apprendimento degli studenti.
L’obiettivo è quello di ridurre i danni e massimizzare i benefici dell’AI per i lavoratori, tenendo in considerazione i problemi degli spostamenti, dell’equità, della salute e della sicurezza sul posto di lavoro.
Il report sui potenziali impatti dell’AI sul mercato del lavoro è un tema centrale legato allo sviluppo dell’Intelligenza Artificiale Generativa.
L’implementazione di modelli di IA potrebbe sostituire alcune mansioni, come il doppiaggio, la traduzione, il customer service e la correzione di bozze, con conseguente riduzione delle opportunità lavorative in questi settori.
L’azienda Do Not Pay prevede che persino gli avvocati potrebbero essere sostituiti in futuro da modelli di IA.
Per questo motivo, è necessario garantire il supporto a tutti quei settori che subiranno una significativa riduzione delle opportunità lavorative.
Inoltre, l’Ordine Esecutivo prevede che le valutazioni professionali non dovrebbero utilizzare modelli corrotti da bias. L’obiettivo è quello di evitare che le decisioni di assunzione vengano influenzate da pregiudizi e discriminazioni.
Nella visione ottimistica, l’integrazione dell’AI nel settore produttivo non dovrebbe rappresentare un elemento di concorrenza al ribasso salariale, ma piuttosto un motore di sviluppo economico e sociale.
Le azioni di tutela dei consumatori, dei pazienti clinici e degli studenti prevedono che il Dipartimento della Salute e dei Servizi Umani riceva rapporti sull’uso non sicuro o dannoso delle pratiche mediche che coinvolgono l’IA.
Inoltre, saranno proposti dei rimedi per garantire la sicurezza e la tutela dei soggetti coinvolti.
Nel campo scolastico, si sta lavorando allo sviluppo di strumenti di apprendimento basati sull’intelligenza artificiale, come ad esempio tutor personalizzati in grado di soddisfare le esigenze educative degli alunni in maniera su misura.
Innovazione, concorrenza e leadership USA
L’ordine esecutivo prevede l’accesso a risorse e dati chiave sull’AI, ampliando le sovvenzioni sulla ricerca, in particolare nel campo sanitario e ambientale.
Si garantirà ai piccoli sviluppatori e imprenditori l’accesso alle risorse sull’AI, si instaureranno rapporti bilaterali e multilaterali per collaborare sull’AI e si svilupperanno standard sull’AI con partner internazionali e organizzazioni per la standardizzazione.
Inoltre, si promuoverà lo sviluppo dell’AI all’estero in modo sicuro e responsabile, assumendo professionisti dell’AI.
In conclusione, il nuovo ordine esecutivo emesso dal Presidente Joe Biden mira a porre gli Stati Uniti in una posizione di leadership nel campo dell’intelligenza artificiale, garantendo al contempo la sicurezza, la privacy, l’equità e i diritti civili.
Si prevede che queste nuove regolamentazioni avranno un impatto significativo sullo sviluppo e l’utilizzo dell’intelligenza artificiale negli Stati Uniti.
La gestione dei pericoli associati all’applicazione dell’intelligenza artificiale
Nonostante le agenzie possano trarre enormi benefici dall’impiego dell’intelligenza artificiale, esse devono anche affrontare una serie di pericoli che ne derivano.
Le agenzie devono rispettare gli attuali requisiti di gestione del rischio legati all’IA, e questo memorandum non li annulla o sostituisce.
Al contrario, introduce nuovi requisiti specificamente orientati ai pericoli derivanti dalla dipendenza dall’intelligenza artificiale per guidare o implementare le decisioni e le azioni delle agenzie, soprattutto quando tale dipendenza influisce sui diritti e sulla sicurezza dei cittadini.
Per mitigare tali pericoli, il memorandum esige che le agenzie applichino almeno alcune pratiche quando utilizzano strumenti che influiscono sui diritti e sulla sicurezza e che implicano l’uso dell’intelligenza artificiale.
Inoltre, elenca specifiche tipologie di intelligenza artificiale che si presume abbiano un impatto sui diritti e sulla sicurezza. Infine, il memorandum fornisce una serie di suggerimenti per la gestione dei rischi dell’IA nel contesto delle gare d’appalto federali.
Per quanto riguarda la formazione interna dell’amministrazione, il Presidente prevede di fornire una formazione diretta per tutti gli impiegati, indipendentemente dal loro livello, nei settori di interesse. Inoltre, si prevede di accelerare l’assunzione di professionisti nel campo dell’Intelligenza Artificiale, seguendo l’esempio di organizzazioni come U.S. Digital Service, U.S. Digital Corps e Presidential Innovation Fellowship.
Nell’ordine, viene anche fornita una dichiarazione e viene elencato un elenco dei paesi con cui il governo ha già collaborato in passato.
Tra questi, viene menzionato il Processo di Hiroshima del G-7, le cui risultanze e linee guida sono state pubblicate il 30 Ottobre in concomitanza con l’ordine esecutivo. Ce ne occuperemo prossimamente sempre su queste pagine
il termine agenzia
Il termine “agenzia” è definito come “qualsiasi dipartimento esecutivo, dipartimento militare, ente governativo, ente controllato dal governo o altro istituto nel ramo esecutivo del governo (incluso l’ufficio esecutivo del presidente), o qualsiasi agenzia di regolamentazione indipendente; la Commissione elettorale federale; i governi del Distretto di Columbia e dei territori e possedimenti degli Stati Uniti, e le loro varie suddivisioni; o strutture gestite da appaltatori di proprietà del governo, compresi i laboratori impegnati in attività di ricerca e produzione nel settore della difesa nazionale.
Questo memorandum non sostituisce altre politiche federali più generali che riguardano l’IA ma non si focalizzano specificamente su di essa, come le politiche relative alla gestione del rischio aziendale, alla gestione delle informazioni, alla privacy, alle attività statistiche federali, all’informatica o alla sicurezza informatica.
Le agenzie devono continuare a rispettare le politiche dell’OMB applicabili in altri settori pertinenti all’IA e coordinare la loro attuazione.
Rafforzare la governance dell’Intelligenza Artificiale
Il capo di ciascuna agenzia
- è responsabile di perseguire l’innovazione dell’IA e di garantire che la propria agenzia rispetti i requisiti di intelligenza artificiale previsti dalle leggi e dalle politiche pertinenti, compreso che i rischi derivanti dall’uso dell’IA da parte dell’agenzia siano adeguatamente gestiti.
- deve inoltre considerare le risorse finanziarie, umane, informative e infrastrutturali necessarie per svolgere tali responsabilità in modo efficace, inclusa la fornitura o la richiesta di risorse tramite il processo di bilancio per supportare le responsabilità identificate nel presente memorandum.
Per migliorare la responsabilità per le questioni legate all’IA, le agenzie devono designare un Chief AI Officer che hanno la responsabilità primaria
Quali sono le nuove linee guida che il memorandum richiede alle agenzie governative per la gestione del rischio legato all’IA?
Il memorandum richiede alle agenzie governative di seguire pratiche minime quando utilizzano strumenti che possono incidere sui diritti e sulla sicurezza del pubblico e enumera categorie specifiche di IA che si presume abbiano un impatto sui diritti e sulla sicurezza.
Inoltre, il memorandum stabilisce nuovi requisiti focalizzati specificamente sulla gestione del rischio legato all’utilizzo dell’IA da parte delle agenzie governative.
Le agenzie devono continuare a rispettare le politiche OMB applicabili in altri settori rilevanti per l’intelligenza artificiale e coordinare con i funzionari e le organizzazioni responsabili esistenti all’interno delle loro agenzie.
Quali sono le categorie specifiche di IA che possono avere un impatto sui diritti e sulla sicurezza del pubblico?
Il memorandum elenca diverse categorie specifiche di IA che si presume abbiano un impatto sui diritti e sulla sicurezza del pubblico. Queste categorie includono:
- Vita o benessere umano, inclusa la perdita di vite umane, lesioni gravi, danni fisici, danni biologici o chimici, rischi professionali, molestie o abusi, o salute mentale, compresi gli aspetti sia individuali che comunitari di questi danni;
- Clima o ambiente, compresi danni ambientali irreversibili o significativi;
- Beni o risorse strategici, comprese proprietà di alto valore, informazioni contrassegnate come sensibili o classificate dal governo federale e proprietà intellettuale;
- Comunità svantaggiate;
- Infrastrutture critiche, compresi i settori delle infrastrutture critiche definiti nella Presidenza Direttiva politica 21 (PPD-21), Sicurezza e resilienza delle infrastrutture critiche;
- L’IA utilizzata in un contesto in cui le persone interessate hanno una ragionevole aspettativa che un essere umano sia o debba essere il principale responsabile di una decisione o azione;
- L’evasione o la manipolazione da parte dell’avversario dell’intelligenza artificiale, come ad esempio un’entità che induce intenzionalmente l’intelligenza artificiale a classificare erroneamente un input.
Come il memorandum si relaziona alla legge sull’IA nel governo del 2020?
Il memorandum si relaziona alla legge sull’IA nel governo del 2020 fornendo ulteriori linee guida e requisiti per la gestione del rischio legato all’IA da parte delle agenzie governative.
Mentre la legge sull’IA nel governo del 2020 ha stabilito la necessità di una governance efficace dell’IA, il memorandum specifica i ruoli e le responsabilità dei Chief AI Officer (CAIO) delle agenzie e richiede la presentazione di piani di conformità e l’inventario dei casi d’uso dell’IA.
Inoltre, il memorandum si basa sull’ordine esecutivo del presidente Biden del 30 ottobre 2023 per promuovere la governance, l’innovazione e la gestione del rischio nell’uso dell’IA da parte delle agenzie governative.
Quali sono i punti principali del memorandum per i capi dei dipartimenti esecutivi e delle agenzie?
Il memorandum per i capi dei dipartimenti esecutivi e delle agenzie negli Stati Uniti ha lo scopo di promuovere la governance, l’innovazione e la gestione del rischio per l’uso dell’intelligenza artificiale (IA) da parte delle agenzie. Alcuni dei punti principali del memorandum includono:
- Designazione di un Chief AI Officer (CAIO): ogni agenzia deve designare un CAIO entro 60 giorni dalla data di emissione del memorandum. Il CAIO ha la responsabilità primaria di coordinare e governare le questioni relative all’IA all’interno dell’agenzia.
- Sviluppo di una strategia di IA aziendale: ogni agenzia deve sviluppare una strategia di IA aziendale per aumentare la capacità di adottare con successo e responsabilmente l’IA nelle loro operazioni.
- Gestione del rischio legato all’IA: le agenzie devono gestire i rischi derivanti dall’uso dell’IA, in particolare quelli che riguardano la sicurezza ei diritti del pubblico. Il memorandum richiede alle agenzie di seguire pratiche minime quando utilizzano strumenti che incidono sui diritti e sulla sicurezza.
- Inventari dei casi d’uso dell’IA: ogni agenzia deve presentare annualmente un inventario dei suoi casi d’uso dell’IA a OMB e successivamente pubblicare una versione pubblica sul sito Web dell’agenzia.
- Collaborazione con gli organismi di definizione degli standard di IA: le agenzie devono sostenere e coordinare il coinvolgimento della propria agenzia negli organismi di definizione degli standard di IA, come appropriato, e incoraggiare l’adozione da parte delle agenzie di standard consensuali volontari per l’ IA.
- Rinuncia ad applicazioni individuali di IA: le agenzie devono rinunciare ad applicazioni individuali di IA da elementi specifici del memorandum attraverso i processi dettagliati in tale sezione.
- Promozione dell’innovazione responsabile dell’IA: se implementata in modo responsabile, l’IA può migliorare le operazioni in tutto il governo federale. Le agenzie devono aumentare la loro capacità di adottare con successo e responsabilmente l’IA nelle loro operazioni.
Quali sono le pratiche di gestione del rischio minimo per gli usi dell’ia che incidono sui diritti del pubblico stabilite dal memorandum?
Il memorandum per i capi dei dipartimenti esecutivi e delle agenzie negli Stati Uniti valutazione pratiche di gestione del rischio minimo per gli usi dell’intelligenza artificiale (IA) che incidono sui diritti del pubblico. Alcune delle pratiche di gestione del rischio minimo includono:
- Identificazione dei rischi: le agenzie devono identificare i rischi derivanti dall’uso dell’IA, in particolare quelli che riguardano la sicurezza ei diritti del pubblico.
- Valutazione dei rischi: le agenzie devono valutare i rischi derivanti dall’uso dell’IA e determinare se corrispondenti alla definizione di impatto sulla sicurezza o sui diritti.
- Cessazione dell’IA non conforme: le agenzie devono smettere di utilizzare qualsiasi IA che incide sulla sicurezza o sui diritti del pubblico se non implementano le pratiche minime di gestione del rischio entro il 1° agosto 2024.
- Pubblicazione dei casi d’uso: le agenzie devono segnalare implicazioni i casi d’uso solo nella misura possibile e coerente con la legge applicabile e le linee guida governative, comprese quelle relative alla protezione della privacy e delle forze dell’ordine sensibili, alla sicurezza nazionale e ad altre informazioni protette.
Quali sono le ulteriori migliori pratiche per la gestione del rischio dell’ia promosse e incorporate dalle agenzie?
- AI Risk Management Framework del National Institute of Standards and Technology (NIST): le agenzie sono incoraggiate a promuovere e incorporare, ove appropriato, ulteriori migliori pratiche per la gestione del rischio dell’IA, come quelle del NIST AI Risk Management Framework.
- Valutazione dei rischi per le comunità svantaggiate: le agenzie dovrebbero prestare particolare attenzione ai potenziali rischi per le comunità svantaggiate. I benefici attesi dalla funzionalità dell’IA dovrebbero essere considerati rispetto ai suoi potenziali rischi e, se i benefici non superano significativamente i rischi, le agenzie non dovrebbero utilizzare l’IA.
- Analisi qualitativa: se la quantificazione dei dati non è fattibile, l’analisi qualitativa dovrebbe dimostrare un risultato positivo atteso, ad esempio miglioramenti dell’esperienza del cliente o delle interazioni umane, e dimostrare che l’IA è adatta per svolgere il compito rilevante.
- Valutazione della qualità dei dati: le agenzie devono valutare la qualità dei dati utilizzati nella progettazione, sviluppo, formazione, test e il funzionamento e la sua idoneità allo scopo previsto dell’IA.
- Documentazione dei rischi: le agenzie dovrebbero documentare le parti interessate che saranno maggiormente colpite dall’uso del sistema e valutare le possibili modalità di fallimento e le misure, oltre a quelle pratiche minime, che l’agenzia adotterà per contribuire a ridurre questi rischi.
Quali sono le ulteriori iniziative delle agenzie per la gestione del rischio dell’ia oltre a quelle stabilite dal memorandum?
- Formazione del personale: le agenzie stanno fornendo formazione al personale sull’IA e sui rischi associati all’uso dell’IA. La formazione dovrebbe includere la comprensione dei dati utilizzati dall’IA, la valutazione dei rischi e la gestione dei rischi.
- Collaborazione con le parti interessate: le agenzie stanno collaborando con le parti interessate, come le comunità svantaggiate, per comprendere meglio i loro bisogni e preoccupazioni e per garantire che l’IA sia utilizzata in modo equo e responsabile.
- Monitoraggio e valutazione: le agenzie stanno monitorando e valutando l’uso dell’IA per identificare i potenziali rischi e per garantire che l’IA sia utilizzata in modo responsabile e sicuro.
- Trasparenza: le agenzie stanno lavorando per aumentare la trasparenza dell’uso dell’IA, ad esempio pubblicando informazioni sui casi d’uso dell’IA e sui dati utilizzati dall’IA.
- Collaborazione con altre agenzie: le agenzie stanno collaborando con altre agenzie per condividere le migliori pratiche e le lezioni apprese sull’uso dell’IA e per garantire che l’IA sia utilizzata in modo coerente e responsabile in tutto il governo.
Quali sono i rischi associati all’intelligenza artificiale ?
L’utilizzo dell’intelligenza artificiale (IA) comporta diversi rischi, tra cui:
- Discriminazione algoritmica: l’IA può perpetuare e amplificare le disuguaglianze esistenti, ad esempio attraverso la selezione di dati di addestramento non rappresentativi o l’uso di algoritmi che discriminano determinati gruppi di persone.
- Impatti sulla sicurezza: l’IA può causare danni fisici o materiali se non viene gestita correttamente, ad esempio se viene utilizzata in sistemi di sicurezza critici come quelli dei trasporti o della salute.
- Impatti sui diritti civili e umani: l’IA può influenzare i diritti e le libertà delle persone, ad esempio attraverso la sorveglianza di massa o la violazione della privacy.
- Qualità e adeguatezza dei dati: l’IA dipende dai dati di addestramento, che possono essere incompleti, imprecisi o non rappresentativi, portando a risultati errati o discriminatori.
- Dipendenza dall’IA: l’uso eccessivo dell’IA può portare alla dipendenza da essa, con conseguente perdita di autonomia e capacità decisionale umana.
Quali sono le principali cause della discriminazione algoritmica negli stati uniti?
Le cause della discriminazione negli Stati Uniti possono essere molteplici e complesse. Tuttavia, alcune delle principali cause includono:
- Dati di addestramento sbagliati: gli algoritmi di apprendimento automatico si basano sui dati di addestramento per prendere decisioni. Se i dati di addestramento sono incompleti o non rappresentativi della popolazione, gli algoritmi possono discriminare determinati gruppi di persone.
- Bias umani: gli algoritmi possono riflettere i pregiudizi umani se i dati di addestramento sono stati raccolti da fonti che riflettono i pregiudizi umani. Ad esempio, se i dati di addestramento per un algoritmo di selezione del personale sono stati raccolti da un’azienda che ha una storia di discriminazione, l’algoritmo potrebbe discriminare le donne o le persone di colore.
- Progettazione dell’algoritmo: la progettazione dell’algoritmo può influenzare la discriminazione algoritmica. Ad esempio, se un algoritmo di valutazione del rischio di credito tiene conto della razza o del genere di una persona, può discriminare le persone sulla base di queste caratteristiche.
- Mancanza di trasparenza: la mancanza di trasparenza nell’implementazione degli algoritmi può rendere difficile identificare la discriminazione algoritmica. Se le persone non sanno come funzionano gli algoritmi o quali dati vengono utilizzati per prendere decisioni, non possono contestare le decisioni discriminatorie.
Quali sono gli esempi di discriminazione algoritmica?
La discriminazioneca si verifica quando l’IA perpetua e amplifica le disuguaglianze esistenti, ad esempio attraverso la selezione di dati di addestramento non rappresentativi o l’uso di algoritmi che discriminano determinati gruppi di persone. Alcuni esempi di algoritmo discriminante includono:
- Selezione di dati di addestramento non rappresentativi: se i dati utilizzati per addestrare l’IA non rappresentano adeguatamente tutte le categorie di persone, l’IA potrebbe non essere in grado di prendere decisioni giuste per tutti. Ad esempio, se un algoritmo di selezione del personale viene addestrato solo su candidati maschi, potrebbe discriminare le candidate femminili.
- Algoritmi che discriminano: alcuni algoritmi possono essere progettati in modo da discriminare determinati gruppi di persone. Ad esempio, un algoritmo di prestito potrebbe discriminare le persone di colore, anche se non ci sono dati che dimostrano che le persone di colore sono meno affidabili dei candidati bianchi.
- Dipendenza da proxy: l’IA può dipendere da proxy, ovvero dati che non sono direttamente correlati alla decisione che deve prendere, ma che sono utilizzati come sostituti. Ad esempio, un algoritmo di selezione del personale potrebbe utilizzare il codice postale come proxy per la razza, il che potrebbe portare a discriminazione.
Quali sono le conseguenze della discriminazione algoritmica sulle persone coinvolte
La discriminazione può avere conseguenze negative sulle persone coinvolte, tra cui:
- Esclusione: se l’IA viene utilizzata per prendere decisioni importanti, come l’assunzione di personale o l’approvazione di prestiti, la discriminazione algoritmica può portare all’esclusione di determinati gruppi di persone.
- Ingiustizia: la discriminazione algoritmica può portare a decisioni ingiuste e non basate sui meriti delle persone coinvolte.
- Perpetuazione delle disuguaglianze: se l’IA perpetua le disuguaglianze esistenti, può portare a un ulteriore svantaggio per i gruppi già svantaggiati.
- Perdita di fiducia: se le persone percepiscono che l’IA è discriminatoria, possono perdere la fiducia nelle istituzioni che l’utilizzatore.
Quali sono gli esempi di discriminazione algoritmica che hanno avuto conseguenze sulle persone coinvolte?
Ci sono diversi esempi di discriminazione algoritmica che hanno avuto conseguenze negative sulle persone coinvolte. Ad esempio:
- Selezione del personale: alcuni algoritmi di selezione del personale sono stati trovati a discriminare le donne o le persone di colore, portando all’esclusione di questi gruppi.
- Sistema di prestito: alcuni algoritmi di valutazione del rischio di credito hanno discriminato le persone di colore, portando un accesso limitato al credito.
- Sistema di giustizia penale: alcuni algoritmi utilizzati nel sistema di giustizia penale hanno discriminato le persone di colore, portando a decisioni ingiuste e disuguaglianze.
- Sorveglianza di massa: l’uso di algoritmi per la sorveglianza di massa può portare alla discriminazione di determinati gruppi di persone, ad esempio sulla base della razza o della religione.
- Selezione delle assicurazioni: alcuni algoritmi utilizzati per la selezione delle assicurazioni hanno discriminato le persone sulla base della loro età, genere o stato di salute.
Quali sono le conseguenze sociali della discriminazione algoritmica sulle persone coinvolte?
La discriminazione può avere conseguenze sociali negative sulle persone coinvolte, tra cui:
- Esclusione sociale: se l’IA viene utilizzata per prendere decisioni importanti, come l’assunzione di personale o l’approvazione di prestiti, la discriminazione algoritmica può portare all’esclusione di determinati gruppi di persone, aumentando le disuguaglianze sociali.
- Ingiustizia sociale: la discriminazione algoritmica può portare a decisioni ingiuste e non basate sui meriti delle persone coinvolte, aumentando la percezione di ingiustizia sociale.
- Perpetuazione delle disuguaglianze sociali: se l’IA perpetua le disuguaglianze esistenti, può portare un ulteriore svantaggio per i gruppi già svantaggiati, aumentando la polarizzazione sociale.
- Perdita di fiducia nelle istituzioni: se le persone percepiscono che l’IA è discriminatoria, possono perdere la fiducia nelle istituzioni che l’utilizzano, aumentando la sfiducia sociale.
Quali sono gli esempi di discriminazione algoritmica che hanno avuto conseguenze economiche sulle persone coinvolte negli stati uniti?
Ci sono stati diversi studi e articoli che hanno evidenziato casi di discriminazione algoritmica negli Stati Uniti, i quali hanno avuto conseguenze economiche negative per le persone coinvolte.
- Un rapporto del 2018 del National Bureau of Economic Research ha rilevato che gli algoritmi utilizzati dalle piattaforme di ride-sharing come Uber e Lyft discriminano i conducenti di colore, pagandoli meno rispetto ai conducenti bianchi.
- Un rapporto del 2019 del National Community Reinvestment Coalition ha rilevato che gli algoritmi utilizzati dalle banche per valutare il rischio di credito discriminano i residenti delle comunità a basso reddito e di colore, portando a un accesso limitato al credito.
- Un rapporto del 2020 del Markup ha rilevato che gli algoritmi utilizzati dalle compagnie di assicurazione discriminano le persone sulla base della loro età, genere e stato di salute, portando a un accesso limitato alle assicurazioni e limitando le loro opportunità economiche.
- Un rapporto del 2021 del National Institute of Standards and Technology ha rilevato che gli algoritmi utilizzati dalle agenzie governative per la selezione del personale possono discriminare le donne e le persone di colore, portando all’esclusione di questi gruppi dal mercato del lavoro.
Rimedi
Per mitigare questi rischi, il memorandum per la gestione dei rischi dell’IA incoraggia le agenzie a considerare i potenziali rischi associati all’IA ea promuovere le migliori pratiche per la gestione del rischio dell’IA, come quelle delineate nel NIST AI Risk Management Framework . Inoltre, il memorandum fornisce linee guida specifiche per le agenzie, come la valutazione dell’impatto dell’IA, la creazione di organi di governance dell’IA e la documentazione delle pratiche di gestione del rischio dell’IA. Il memorandum sottolinea anche l’importanza di considerare i potenziali rischi per le comunità svantaggiate e di garantire che i benefici dell’IA superino i rischi.
Conclusioni
Le conclusioni cui perviene il memorandum sono le seguenti:
- Le agenzie devono gestire in modo efficace l’utilizzo dell’IA, promuovendo la governance, l’innovazione e la gestione del rischio dell’IA.
- Le agenzie devono seguire pratiche minime quando utilizzano strumenti che incidono sui diritti e sulla sicurezza, valutare i potenziali rischi per le comunità svantaggiate, fornire formazione al personale sull’IA e sui rischi associati all’uso dell’IA, collaborare con le parti interessate, monitorare e valutare l’uso dell’IA e aumentare la trasparenza dell’uso dell’IA.
- Le agenzie devono seguire le politiche federali più generali che si applicano all’IA ma non si concentrano specificamente sull’IA, come le politiche relative alla gestione del rischio aziendale, alla gestione delle risorse informative, alla privacy, tecnologia (IT), sicurezza, privacy, diritti e libertà civili, esperienza del cliente e gestione della forza lavoro.
- Le agenzie devono designare un Chief AI Officer (CAIO) entro 60 giorni dall’emanazione del memorandum e identificare questi funzionari in OMB attraverso il processo di raccolta dati integrata di OMB.
- Le agenzie devono sviluppare una strategia di IA aziendale e ridurre gli ostacoli all’uso responsabile dell’IA, comprese le barriere relative all’infrastruttura IT, ai dati, alla sicurezza informatica, alla forza lavoro e alle particolari sfide dell’IA generativa.
- Le agenzie devono gestire una serie di rischi derivanti dall’uso dell’IA, tra cui rischi per la sicurezza, rischi per i diritti del pubblico, rischi per la privacy, rischi per la trasparenza e rischi per la responsabilità.
Unendo l’Executive Order degli Stati Uniti all’AI Act Europeo e al recente Codice di Condotta introdotto dal G-7, sembra che siano stati definiti le linee guida globali e i principi di sviluppo nel campo dell’Intelligenza Artificiale.
A distanza di un anno dalla diffusione di massa dell’IA Generativa, che ha reso centrale e pubblica la discussione sull’Intelligenza Artificiale, alcune importanti questioni hanno trovato risposte esaustive.
Ora inizia la fase in cui i principi e le linee guida dovranno essere calati nel mondo reale, con la consapevolezza che sarà complesso trovare un equilibrio duraturo data la portata degli interessi in gioco.