L’AI Act e la Sfida del Consenso Europeo: Un Vertice di Negoziazione al Limite
Dopo un vertice estenuante che ha superato le 36 ore di trattative ininterrotte, l’Unione Europea ha finalmente raggiunto un accordo sull’AI Act, un passo che potrebbe riscrivere le regole del gioco per l’intelligenza artificiale a livello globale
La strada verso l’accordo è stata segnata da negoziazioni prolungate e complesse, che hanno messo in luce le difficoltà intrinseche nel raggiungere un consenso su una materia tanto delicata e all’avanguardia come quella dell’IA. La natura stessa del negoziato evidenzia la molteplicità di interessi e visioni che caratterizzano gli Stati membri e le istituzioni europee, una sfida non da poco in un contesto dove ogni dettaglio può avere un impatto considerevole sul futuro tecnologico.
Il processo negoziale si è rivelato una maratona, riflettendo le sfide nel mediare tra le diverse entità politiche e istituzionali, con la necessità di bilanciare innovazione, sicurezza e diritti fondamentali.
Il percorso verso l’accordo è stato contraddistinto da una serie di sfide tecniche, legali e politiche, che hanno richiesto un livello di attenzione e di compromesso senza precedenti. Il Parlamento europeo e gli Stati membri si sono trovati in un continuo tira e molla, evidenziando la complessità del trovare una posizione unificata su tematiche così avanzate e delicate.
Il regolamento introduce una classificazione dei sistemi di IA basata sui rischi potenziali per gli utenti. Questo approccio stratificato assicura che le applicazioni ad alto rischio siano soggette a controlli più stringenti, mentre quelle a basso rischio possano operare con maggior libertà, stimolando l’innovazione senza compromettere la sicurezza.
Con la sua attuazione, sarà cruciale osservare come l’Europa si muoverà per mantenere il passo con le rapide evoluzioni del settore e quale impatto avrà sul mercato globale dell’IA.
Per il momento l’accordo è stato accolto con favore da esperti legali e tecnologici, come dimostra il lavoro svolto da 42 Law Firm e LT42 – The Legal Tech Company, che hanno collaborato per creare un documento dettagliato che analizza le sfumature dell’AI Act. Questa collaborazione dimostra l’importanza di unire forze legali e tecnologiche per navigare le complessità di una tale legislazione innovativa.
Al momento, il testo è ancora un’opera in progressione, con ogni valutazione soggetta a possibili cambiamenti fino all’approvazione finale del documento.
Il testo definitivo dell’AI Act è ancora in fase di elaborazione, ma alcune delle sue caratteristiche principali sono già state divulgate.
Queste informazioni preliminari sono state ottenute durante momenti intensi di attività giornalistica, tuttavia, ulteriori dettagli saranno condivisi non appena saranno disponibili nuovi documenti e aggiornamenti.
È importante notare che, poiché l’attuale bozza dell’AI Act è provvisoria, ogni analisi potrebbe subire modifiche fino all’adozione del testo finale. Con l’Europa che avanza verso la finalizzazione di questa normativa, c’è grande attesa per le ripercussioni che essa avrà sul futuro dell’intelligenza artificiale e sulla società in generale.
La normativa punta a stabilire un equilibrio tra il fomentare l’innovazione tecnologica e garantire la sicurezza e i diritti dei cittadini europei. Le aziende e gli sviluppatori di sistemi di IA dovranno navigare un nuovo panorama regolatorio che imporrà standard di qualità e trasparenza senza precedenti.
Tuttavia, è fondamentale sottolineare che ogni interpretazione del testo attuale è provvisoria. Le discussioni in corso tra il Parlamento europeo, il Consiglio e la Commissione europea potrebbero portare a modifiche significative nelle versioni successive dell’AI Act.
Con l’AI Act, l’Europa si pone all’avanguardia nella creazione di uno standard che potrebbe influenzare future regolamentazioni internazionali e che mira a promuovere uno sviluppo etico e sicuro dell‘intelligenza artificiale. Resta da vedere come questo atto legislativo influenzerà l’innovazione e la competitività europea nel lungo termine.
In attesa dell’approvazione definitiva e dell’attuazione delle norme, il dibattito sull’impatto e sulle implicazioni dell’AI Act è più acceso che mai, con gli occhi del mondo rivolti all’Europa e alla sua pionieristica visione per un futuro tecnologico responsabile.
La presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate sull’intelligenza artificiale (AI).
Il progetto di regolamento mira a garantire la sicurezza dei sistemi di IA immessi sul mercato europeo e utilizzati nell’UE, nel rispetto dei diritti fondamentali e dei valori dell’UE. Questa proposta storica mira anche a stimolare gli investimenti e l’innovazione nell’intelligenza artificiale in Europa.
Inoltre, l’applicazione di questo regolamento sarà in gran parte responsabilità dei singoli Stati membri.
Brando Benifei, correlatore del Parlamento europeo, ha affermato che la legislazione sull’intelligenza artificiale rappresenta un importante progresso per l’Europa.
Sarà fondamentale garantire una corretta attuazione della legislazione e il Parlamento si impegnerà a vigilare affinché i diritti e le libertà siano al centro dello sviluppo di questa tecnologia innovativa. Inoltre, si presterà attenzione al sostegno alle nuove idee imprenditoriali attraverso l’implementazione di sandbox e regole efficaci per i modelli più potenti.
Brando Benifei ha anche sottolineato l’importanza di avere “autorità indipendenti” che autorizzino l’uso dell’intelligenza artificiale nel contesto della “polizia predittiva”, al fine di prevenire abusi da parte delle forze dell’ordine e di preservare il principio di presunzione di innocenza nei crimini.
Thierry Breton, Commissario europeo al Mercato Interno, ha annunciato via tweet un “storico” accordo su una serie di normative europee che regoleranno i sistemi di intelligenza artificiale, i social media e i motori di ricerca, influenzando aziende di grande rilievo come X, TikTok e Google.
Breton ha detto che 100 persone sono rimaste in una stanza per quasi tre giorni per suggellare l’accordo. Ha detto che “valeva la pena dormire qualche ora” per concludere l’accordo “storico”.
Tudorache ha dichiarato che l’Unione Europea è la prima al mondo a introdurre una regolamentazione solida sull’intelligenza artificiale, guidando lo sviluppo di questa tecnologia in una direzione centrata sull’uomo.
La legge sull’intelligenza artificiale stabilisce norme per i modelli di intelligenza artificiale potenti, garantendo la sicurezza dell’Unione e offrendo protezioni per i cittadini e le democrazie contro possibili abusi da parte delle autorità pubbliche. Inoltre, la legge protegge le PMI, promuove l’innovazione nell’ambito dell’intelligenza artificiale e tutela i settori vulnerabili dell’economia.
L’AI Act è un contributo significativo dell’Unione Europea al mondo e avrà un impatto rilevante sul futuro digitale.
Carme Artigas, segretario di stato spagnolo per l’intelligenza artificiale, ha dichiarato che Francia e Germania sostengono il testo della legge sull’intelligenza artificiale.
L’Influenza Globale della Regolamentazione UE sull’Intelligenza Artificiale
L’Unione Europea vuole posizionarsi come un faro normativo nel tumultuoso mare dell‘intelligenza artificiale (IA). Con il suo approccio rigido e olistico, l’UE vuole plasmare il proprio mercato ma anche esercitare un’influenza significativa sul panorama regolatorio globale dell’IA.
Anu Bradford, professore di diritto alla Columbia Law School e riconosciuto esperto nelle politiche di regolamentazione dell’UE e digitale, sottolinea che una forte regolamentazione europea “potrebbe costituire un potente esempio per molti governi che considerano la regolamentazione” dell‘intelligenza artificiale.
Un Modello da Emulare ?
Il “Modello UE” vuole diventare un riferimento internazionale a cui altri paesi potrebbero ispirarsi. Sebbene sia improbabile che le giurisdizioni esterne adottino in toto le normative europee, è prevedibile che ne emuleranno gli aspetti fondamentali?
Anche se questo fenomeno, noto come “Effetto Bruxelles”, non è nuovo, si è già osservato in passato per altre regolamentazioni, come il GDPR (General Data Protection Regulation), che ha imposto nuovi standard globali per la privacy e la protezione dei dati, riteniamo personalmente che questa volta l’approccio scelto potrebbe non essere così impattante.
Implicazioni per le Aziende di IA
La tesi che punta sul primato della normativa europea si basa sull’assunto secondo il quale le aziende che operano nel campo dell‘intelligenza artificiale dovranno conformarsi alle direttive europee se vorranno accedere al vasto e redditizio mercato dell’UE. Bradford evidenzia che queste società “probabilmente estenderanno alcuni di questi obblighi anche ai mercati al di fuori del continente”. La ragione è pragmatica: mantenere modelli di IA distinti per diversi mercati non è efficiente né economicamente sostenibile. Pertanto, le regole europee potrebbero de facto diventare uno standard globale.
Nuovo Regolamento UE su Intelligenza Artificiale: Esclusioni e Implicazioni
L’Unione Europea ha fatto un altro passo avanti nella definizione del quadro normativo che regola l’uso dell’intelligenza artificiale (IA), raggiungendo un accordo provvisorio che delinea chiaramente i confini di applicazione del nuovo regolamento. Questa mossa segna un momento cruciale per il futuro dell’IA in Europa, delineando le aree in cui la legge dell’UE avrà autorità e dove invece non inciderà.
Esclusioni Strategiche
Il testo dell’accordo provvisorio chiarisce che il regolamento non si estenderà a settori al di fuori della giurisdizione dell’UE. Questa esclusione tutela la sovranità degli Stati membri, soprattutto in ambiti delicati e cruciali come la sicurezza nazionale. Inoltre, il regolamento non influenzerà le competenze degli Stati membri in materia di sicurezza né interagirà con le entità incaricate di compiti specifici in questo settore.
Ambiti Militari e di Difesa
Una distinzione importante riguarda l’applicazione del regolamento ai sistemi di IA: non si applicherà a quelli usati esclusivamente per scopi militari o di difesa. Questo lascia una larga autonomia agli Stati membri nell’utilizzo dell’IA in contesti militari, dove spesso le esigenze di sicurezza e segretezza prevalgono sulle normative civili.
Ricerca e Innovazione
Il regolamento riconosce anche l’importanza della ricerca e dell’innovazione, escludendo dal suo campo di applicazione i sistemi di IA utilizzati solo a questi fini. Questa scelta incoraggia il progresso scientifico e tecnologico, permettendo ai ricercatori di esplorare le potenzialità dell’IA senza vincoli normativi che potrebbero rallentare l’innovazione.
Uso Personale e Non Professionale
Un altro aspetto rilevante è l’esclusione dei sistemi di IA usati da individui per motivi non professionali. Questo implica che i cittadini europei potranno utilizzare tecnologie basate sull’IA per uso personale senza doversi conformare al regolamento, garantendo così una certa libertà nella sfera privata e nel consumo di tecnologie avanzate.
La Battaglia Regolamentare sull’Intelligenza Artificiale e il Riconoscimento Biometrico
L’Unione Europea si trova al centro di un acceso dibattito riguardante i confini etici e legali dell’intelligenza artificiale, in particolare per quanto riguarda l’uso del riconoscimento biometrico in tempo reale da parte delle forze dell’ordine. Questa problematica ha messo in luce una divisione marcata tra le istituzioni europee e ha acceso discussioni sul bilanciamento tra sicurezza e privacy.
Il Parlamento Europeo e la Privacy
Il Parlamento europeo si è posizionato fermamente contro l’uso indiscriminato del riconoscimento biometrico, sottolineando i rischi per i diritti civili e la privacy individuale. Tale posizione riflette una preoccupazione crescente per le possibili derive autoritarie e discriminanti che potrebbero derivare dall’utilizzo di queste tecnologie.
Il Consiglio e la Sicurezza
In contrasto, il Consiglio dell’UE, che rappresenta gli Stati membri, ha mostrato una maggiore apertura verso l’utilizzo del riconoscimento biometrico, proponendo un approccio più flessibile. Questa divergenza di opinioni ha reso il percorso verso un accordo complesso e tortuoso.
La Soluzione di Compromesso
Dopo prolungate trattative, è stata raggiunta una soluzione di compromesso che prevede l’uso del riconoscimento biometrico solo in casi specifici e circostanziati.
- ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale),
- prevenzione di una minaccia terroristica specifica e attuale, o
- la localizzazione o l’identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (es. terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Questa soluzione cerca di equilibrare le esigenze di sicurezza con la tutela delle libertà individuali.
La Procedura di Emergenza e la Protezione dei Diritti Fondamentali
È stata introdotta una procedura di emergenza che consente alle forze dell’ordine di utilizzare strumenti di IA ad alto rischio in situazioni urgenti, anche senza una previa valutazione di conformità. Parallelamente, è stato stabilito un meccanismo per salvaguardare i diritti fondamentali da abusi potenziali.
Limitazioni e Autorizzazioni Giudiziarie
L’utilizzo dei sistemi sarà possibile solo previa autorizzazione giudiziaria e per reati ben definiti
Tudorache ha dichiarato: “Non abbiamo mai cercato di negare alle forze dell’ordine gli strumenti di cui [la polizia] ha bisogno per combattere la criminalità, gli strumenti di cui ha bisogno per combattere le frodi, gli strumenti di cui ha bisogno per fornire e garantire una vita sicura ai cittadini. Ma quello che volevamo – e quello che abbiamo ottenuto – è il divieto della tecnologia dell’intelligenza artificiale che determinerà o predeterminerà chi potrebbe commettere un crimine”.
La Svolta Regolamentare
L’Unione Europea ha adottato una posizione pionieristica nella regolamentazione dell‘intelligenza artificiale (IA), stabilendo una serie di divieti e obblighi per tutelare i diritti fondamentali dei cittadini. Questa decisione segna un punto di svolta nel tentativo di bilanciare i benefici dell’IA con la necessità di proteggere la sfera privata e la dignità umana.
Pratiche Vietate: Una Lista di Divieti
Tra le pratiche ora vietate, l’UE ha incluso l’uso di sistemi di categorizzazione biometrica che discriminano sulla base di caratteristiche sensibili, come convinzioni politiche o religiose, orientamento sessuale e razza. Questo divieto mira a prevenire abusi e discriminazioni che potrebbero derivare dall’analisi e dall’utilizzo inappropriato di dati biometrici.
Il Divieto sulla Raccolta Non Mirata di Dati
L’UE ha posto un freno alla raccolta indiscriminata di immagini facciali da Internet e da sistemi di videosorveglianza per la creazione di database di riconoscimento facciale. Questa misura si propone di arginare la sorveglianza di massa e il rischio di una società sotto costante osservazione.
Il Riconoscimento delle Emozioni: Una Linea Rossa
La regolamentazione proibisce anche il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative, una pratica considerata invasiva e potenzialmente manipolativa nei confronti dei dipendenti e degli studenti.
Punteggio Sociale e Manipolazione del Comportamento
L’accordo dell’UE vieta forme di punteggio sociale che valutano i cittadini in base al loro comportamento sociale o caratteristiche personali, così come l’uso dell’IA per manipolare il comportamento umano, aggirando il libero arbitrio. Queste misure sono state introdotte per contrastare pratiche che potrebbero portare a discriminazioni o costrizioni sociali.
Protezione dalle Vulnerabilità
Un altro aspetto importante della regolamentazione è il divieto sull’uso dell’intelligenza artificiale per sfruttare le vulnerabilità delle persone, inclusi minori, disabili e persone in condizioni socio-economiche svantaggiate.
IA e Processi Elettorali
L’accordo europeo prevede che i sistemi di IA utilizzati per influenzare l’esito delle elezioni o il comportamento degli elettori siano classificati come ad alto rischio. Questo rafforza la difesa dell’integrità dei processi democratici contro le possibili manipolazioni attraverso l’uso distorto della tecnologia.
Reclami e Trasparenza
Con l’avvento delle nuove regolamentazioni, i cittadini europei vedranno un potenziamento significativo dei propri diritti in relazione all’intelligenza artificiale. Sarà loro garantito il diritto di presentare reclami relativi ai sistemi di IA e, cosa cruciale, di ricevere spiegazioni sulle decisioni prese da sistemi di IA ad alto rischio che influiscono direttamente sui loro diritti. Questo rappresenta un passo avanti notevole verso una maggiore trasparenza e accountability nell’uso dell’IA.
Obblighi Rigorosi e Sicurezza Informatica
I sistemi di IA che presentano un rischio sistemico, soprattutto quelli ad alto impatto, saranno soggetti a obblighi più severi. Questi includono la valutazione approfondita dei modelli utilizzati e la mitigazione dei rischi sistemici, nonché misure robuste per garantire la sicurezza informatica. Queste disposizioni sono pensate per prevenire danni diffusi e proteggere le infrastrutture critiche.
Modifiche a Favore dell’Innovazione
Le normative europee hanno subito modifiche significative rispetto alle proposte iniziali della Commissione, con l’intento di fornire un ambiente giuridico più favorevole all’innovazione.
Questo include la promozione dell’apprendimento normativo basato su dati concreti e l’incoraggiamento dell’innovazione attraverso un approccio pratico.
Sandbox Normativi e Sperimentazione in Condizioni Reali
Una novità importante è l’introduzione dei sandbox normativi per l’IA, che mirano a creare un ambiente controllato per sviluppare, testare e validare sistemi di IA innovativi.
In particolare, questi sandbox consentiranno la sperimentazione di sistemi IA in condizioni del mondo reale, offrendo così agli sviluppatori la possibilità di affinare le tecnologie in scenari pratici.
Alleggerimento degli Oneri per le PMI
Riconoscendo le sfide che le piccole e medie imprese (PMI) incontrano, l’accordo provvisorio prevede misure specifiche per alleggerire gli oneri amministrativi.
Questo include deroghe limitate e ben definite, oltre a un elenco di azioni a sostegno delle PMI nell’ambito dell’IA, facilitando così la loro partecipazione al mercato e l’innovazione.
Un Sistema a Tre Livelli per la Classificazione dei Rischi
L’architettura di questa nuova regolamentazione si basa su un sistema a più livelli che classifica i sistemi di IA in base al rischio che presentano. Questo modello è stato progettato per imporre controlli più stringenti sui sistemi che potrebbero minacciare la salute, la sicurezza e i diritti umani.
Categorie di Rischio e Proibizioni
In particolare, l’Unione Europea ha identificato alcune applicazioni di IA come inaccettabili, vietandone l’uso.
Ad esempio, l’accordo provvisorio vieta la manipolazione cognitiva del comportamento, la raccolta indiscriminata di immagini facciali da Internet o da telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, il social scoring, la categorizzazione biometrica per dedurre dati sensibili come l’orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per individui.
Valutazione d’Impatto e Trasparenza
I sistemi di IA ad alto rischio saranno soggetti a una valutazione d’impatto sui diritti fondamentali prima di essere immessi sul mercato. Eurodeputati hanno sottolineato la necessità di una maggiore trasparenza sull’uso di questi sistemi, con particolare attenzione ai settori assicurativo e bancario.
Registrazione e Notifica
Gli enti pubblici e alcuni utenti privati che utilizzano sistemi di IA ad alto rischio dovranno registrarsi in una banca dati dell’UE. Inoltre, sarà obbligatorio informare le persone quando sono soggette a sistemi di riconoscimento delle emozioni.
Livelli di Protezione e Classificazione dei Rischi
L’accordo introduce un livello orizzontale di protezione per assicurarsi che i sistemi di IA che non presentano gravi rischi siano liberi da restrizioni ingiustificate. La classificazione dei rischi è stata ridefinita per concentrarsi sul numero di operazioni in virgola mobile al secondo (Flop), utilizzate per addestrare i sistemi di IA.
Adattamenti per le PMI
Le nuove regole sono state adattate per essere tecnicamente fattibili e meno onerose per le PMI. Queste aziende dovranno garantire la qualità dei dati e fornire documentazione tecnica dettagliata per dimostrare la conformità dei loro sistemi alle normative.
Codici di Condotta
Per i modelli di intelligenza artificiale ad alto impatto con rischio sistemico, fino all’emanazione di norme UE armonizzate, si potrà fare riferimento a codici di condotta esistenti per conformarsi al regolamento.
Istituzione dell’Ufficio AI
Nel cuore della nuova regolamentazione si trova la creazione di un Ufficio AI all’interno della Commissione Europea. Questo organismo avrà il mandato di supervisionare i modelli AI più avanzati, garantendo che le nuove regole siano applicate in modo uniforme in tutta l’Unione. Il Comitato per l’IA, composto da rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e darà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di pratica per i modelli di fondazione. Infine, sarà istituito un forum consultivo per le parti interessate, come i rappresentanti dell’industria, delle PMI, delle start-up, della società civile e del mondo accademico, che fornirà competenze tecniche al comitato per l’AI.
Promozione di Standard e Pratiche
L’Ufficio AI avrà anche il compito di promuovere standard e pratiche di test all’avanguardia, assicurando che i modelli AI siano sia sicuri che efficaci.
Consulenza Indipendente
Un gruppo di esperti scientifici indipendenti fornirà consulenza all’Ufficio AI. Il loro ruolo sarà cruciale nello sviluppo di metodologie per valutare le prestazioni e le capacità dei modelli di base GPAI.
Monitoraggio dei Rischi
Questi esperti avranno anche il compito di monitorare i rischi associati all’utilizzo dei modelli GPAI, garantendo che eventuali implicazioni per la sicurezza siano identificate e gestite tempestivamente.
Sono state concordate regole specifiche anche per i modelli di base, che sono sistemi avanzati in grado di svolgere una vasta gamma di compiti, come generare video, testi, immagini, conversare in modo naturale, elaborare calcoli o generare codici informatici. Secondo l’accordo provvisorio, i modelli di base devono rispettare obblighi di trasparenza specifici prima di essere commercializzati. Inoltre, è stato introdotto un regime più rigoroso per i modelli di base ad alto impatto. Questi modelli sono addestrati con grandi quantità di dati e hanno una complessità avanzata, capacità e prestazioni superiori alla media, il che può comportare rischi sistemici lungo la catena del valore.
Coordinamento e Consultazione
Il Comitato per l’IA, composto da rappresentanti degli Stati membri, fungerà da piattaforma di coordinamento. Questo organo consultivo avrà un ruolo fondamentale nell’attuazione del nuovo regolamento.
Codici di Condotta
Gli Stati membri saranno coinvolti attivamente nella progettazione di codici di condotta per i modelli GPAI, assicurando che le pratiche etiche e le normative siano integrate nel loro sviluppo e utilizzo.
Composizione e Obiettivi
Sarà istituito un forum consultivo che includerà una varietà di stakeholder, come rappresentanti dell’industria, PMI, start-up, società civile e mondo accademico. Questo forum fornirà competenze tecniche al comitato AI.
Dialogo Aperto
Il forum servirà come piattaforma per un dialogo aperto tra i diversi attori del settore dell’AI, facilitando uno scambio di idee vitale per l’innovazione responsabile.
Il Comitato per l’IA, composto da rappresentanti degli Stati membri, rimarrà una piattaforma di coordinamento e un organo consultivo della Commissione e darà un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di pratica per i modelli di fondazione. Infine, sarà istituito un forum consultivo per le parti interessate, come i rappresentanti dell’industria, delle PMI, delle start-up, della società civile e del mondo accademico, che fornirà competenze tecniche al comitato per l’AI.
Trasparenza e Commercializzazione
I modelli di base dovranno adempiere a obblighi specifici di trasparenza prima di essere immessi sul mercato. Ciò è essenziale per garantire che gli utenti comprendano come l’IA funzioni e su quali principi si basi.
Regime Rigoroso per Modelli ad Alto Impatto
Per i modelli di base ad alto impatto, caratterizzati da una notevole complessità e capacità, sarà introdotto un regime normativo più severo. Questo è vitale per mitigare i rischi sistemici potenziali lungo la catena del valore.
Le sanzioni
Le sanzioni per le violazioni della legge sull’IA sono state fissate come una percentuale del fatturato globale annuo dell’azienda colpevole nell’esercizio finanziario precedente o di un importo predeterminato, a seconda di quale sia il più alto.
Si tratterebbe di 35 milioni di euro o del 7% per le violazioni delle applicazioni AI vietate, di 15 milioni di euro o del 3% per le violazioni degli obblighi della legge sull’AI e di 7,5 milioni di euro o dell’1,5% per la fornitura di informazioni non corrette.
Tuttavia, l’accordo provvisorio prevede massimali più proporzionati per le ammende amministrative per le PMI e le start-up in caso di violazione delle disposizioni della legge sull’IA.
L’accordo di compromesso chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge sull’AI e può aspettarsi che tale reclamo venga trattato in linea con le procedure dedicate di tale autorità.
Entrata in vigore
L’accordo provvisorio prevede che l’atto di AI si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
A seguito dell’accordo provvisorio di oggi, nelle prossime settimane proseguiranno i lavori a livello tecnico per finalizzare i dettagli del nuovo regolamento. La presidenza sottoporrà il testo di compromesso ai rappresentanti degli Stati membri (Coreper) per approvazione una volta conclusi i lavori.
L’intero testo dovrà essere confermato da entrambe le istituzioni e sottoposto a revisione giuridico-linguistica prima dell’adozione formale da parte dei colegislatori.
Si prevede una riduzione a sei mesi per i divieti assoluti (tipo sul social scoring). I requisiti per i sistemi di IA ad alto rischio, i modelli di IA potenti, gli organismi di valutazione della conformità e il capitolo sulla governance inizieranno ad essere applicati un anno prima
E’ un buon accordo?
L’accordo ha suscitato critiche da parte delle associazioni dei consumatori, che ritengono che il regolamento non vada abbastanza lontano nel proteggere gli utenti dai pericoli dell’IA.
Ad esempio, sistemi di riconoscimento delle emozioni saranno ancora permessi, nonostante le preoccupazioni sulla loro invasività e inaffidabilità.
Sul fronte dell’industria, c’è una reazione mista. L’industria della cultura e del copyright ha accolto positivamente l’AI Act, poiché riconosce le loro preoccupazioni riguardo all’IA che potrebbe generare contenuti originali, come testi e canzoni. Tuttavia, l’industria dell’innovazione europea esprime preoccupazione, temendo che le regole possano essere troppo onerose e limitare la competitività delle startup innovative europee, soprattutto nel settore dell’IA generativa come quella rappresentata da sistemi avanzati tipo ChatGPT[4].
Il testo dell’AI Act non è ancora definitivo e si attendono ulteriori lavorazioni ai dettagli. Giuristi ed esperti del settore rimangono cauti, aspettando di esaminare il testo finale per valutare le tutele ai diritti fondamentali. Una nota positiva è stata espressa riguardo alla presenza di una valutazione d’impatto sui diritti fondamentali, che potrebbe rafforzare la protezione dei dati personali.
Mentre le direttive statunitensi e britanniche delineano i primi passi verso una governance dell’IA, l’Europa si distingue proponendo un modello regolatorio. Chi avrà ragione ?