Premessa: Il ruolo dell’intelligenza artificiale generativa
Il principale esempio è quello correlato all’impiego di strumenti di intelligenza artificiale (“IA”) generativa.
La generazione di contenuti attraverso l’intelligenza artificiale è un tema caldo nel panorama tecnologico attuale.
I modelli linguistici di grandi dimensioni, noti come Large Language Models (LLM), sono al centro di questa rivoluzione, in grado di produrre testi, immagini, video e altri tipi di contenuti in risposta a specifiche richieste.
Questi modelli sono basati su algoritmi di machine learning addestrati su vasti corpus di testi per generare risposte contestualmente rilevanti.
Il potenziale dei Large Language Models è vasto e va dalla scrittura creativa alla produzione di contenuti editoriali.
Tuttavia questi sistemi non sono esenti da rischi. La capacità di un LLM di generare contenuti coerenti e persuasivi porta con sé la questione dell’etica e della veridicità delle informazioni prodotte, soprattutto se utilizzati senza un adeguato intervento umano per correggere eventuali errori o distorsioni.
La tecnologia degli LLM apre nuove possibilità non solo per la scrittura creativa ma anche per la generazione di contenuti su varie piattaforme, trasformando il modo in cui le informazioni vengono create e condivise.
L’utilizzo di strumenti di intelligenza artificiale come ChatGPT nel campo legale ha sollevato questioni significative riguardo l’affidabilità e l’accuratezza delle informazioni prodotte.
In conclusione, questi episodi servono da monito per l’industria legale e per tutti i professionisti che intendono utilizzare l’intelligenza artificiale come supporto al loro lavoro. È essenziale che gli utenti di tali tecnologie abbiano una comprensione adeguata del loro funzionamento e delle potenziali limitazioni, oltre a un’attenta verifica delle informazioni generate per evitare errori che possono avere ripercussioni legali e professionali.
Il caso Manhattan
L’utilizzo di strumenti di intelligenza artificiale come ChatGPT nel campo legale ha sollevato questioni significative riguardo l’affidabilità e l’accuratezza delle informazioni prodotte.
Un caso emblematico è stato quello di un avvocato di Manhattan che ha utilizzato ChatGPT per redigere un atto giuridico, citando presunti precedenti legali. Tuttavia, questi “precedenti” si sono rivelati completamente inesistenti, portando a un’azione disciplinare nei suoi confronti.
La vicenda ha avuto ripercussioni legali concrete, con la multa inflitta a due avvocati newyorkesi da parte di un giudice federale per aver presentato memorie legali che contenevano precedenti giuridici inventati dalla tecnologia AI di ChatGPTmettendo in luce l’importanza di una verifica umana quando si utilizzano strumenti di intelligenza artificiale per attività così delicate.
Il Ruolo Trasformativo dell’Intelligenza Artificiale negli Studi Legali
L’IA ha dimostrato di essere un alleato prezioso per gli studi legali, poiché offre una vasta gamma di applicazioni che migliorano l’efficienza e l’accuratezza delle attività legali. Una delle principali aree in cui l’IA sta facendo la differenza è la gestione dei documenti legali. Grazie a strumenti di intelligenza artificiale, la revisione e l’analisi di contratti e documenti legali sono diventate molto più rapide e precise. Questo non solo risparmia tempo prezioso, ma riduce anche il rischio di errori umani.
Un altro campo in cui l’IA sta facendo grandi progressi è la ricerca legale.
Gli algoritmi di ricerca avanzata possono esaminare enormi database giuridici per identificare casi precedenti e decisioni giuridiche pertinenti, consentendo agli avvocati di avere accesso a una vasta quantità di informazioni in pochissimo tempo.
Ciò è particolarmente utile per preparare casi e supportare decisioni strategiche.
Tuttavia, nonostante i benefici evidenti, l’adozione dell’IA nei settori legali non è priva di sfide.
Inoltre, c’è la necessità di formare adeguatamente il personale legale sull’uso dell’IA e sulla sua integrazione nei processi esistenti. L’IA non sostituirà gli avvocati, ma li supporterà, quindi è essenziale che gli avvocati acquisiscano competenze per lavorare in sinergia con questa tecnologia.
Un esempio concreto dell’IA che è già ampiamente utilizzato negli studi legali è l’analisi predittiva.
Più in generale, in ambito legale, emergono in maniera chiara le potenzialità che l’intelligenza artificiale generativa offre agli addetti del settore, a partire dalla suddivisione in categorie dei documenti – di significativo aiuto specie nell’attività di ricerca di fonti normative e giurisprudenziali – per giungere fino alla redazione completa di documenti legali di varia natura.
Mentre l’attività di redazione professionale comporta un elevato rischio di errore e richiede un coinvolgimento significativo del professionista, l’intelligenza artificiale (IA) può rivelarsi preziosa nell’automazione di compiti più routinari. Ad esempio, l’introduzione di sistemi automatizzati per monitorare le scadenze processuali potrebbe migliorare la gestione delle risorse finanziarie e del personale.
Questo strumento utilizza dati storici per prevedere l’esito di casi legali, aiutando gli avvocati a formulare strategie migliori. Ciò può portare a decisioni più informate e, di conseguenza, a risultati migliori per i clienti.
La piattaforma HarveyUna
Un esempio significativo è la piattaforma Harvey, una soluzione AI avanzata che è stata adottata da studi legali internazionali per automatizzare e ottimizzare la gestione di documenti legali come contratti e processi di due diligence e compliance.
Secondo quanto riportato da Wired, un avvocato su quattro nello studio legale Allen & Overy utilizza quotidianamente la piattaforma Harvey, mentre l’80% la utilizza almeno una volta al mese
La startup dietro Harvey, sostenuta dall’OpenAI Startup Fund, ha stretto una partnership globale con PwC, offrendo ai professionisti legali accesso a strumenti basati su tecnologie di elaborazione del linguaggio naturale e apprendimento automatico, come dettagliato da Dealflower
Allen & Overy è stato tra i primi studi legali a integrare Harvey nella propria attività globale, consentendo ai suoi oltre 3.500 avvocati in 43 uffici di generare e accedere a contenuti legali in diverse lingue, secondo quanto riportato da Lan Partners.
L’uso dell’intelligenza artificiale negli studi legali migliora l’efficienza del lavoro legale attraverso l’automazione di compiti come la ricerca e l’analisi contrattuale e la generazione di documenti legali
Casetext e CoCounsel
Casetext è una società legale di intelligenza artificiale che sviluppa tecnologie all’avanguardia da oltre 10 anni. Uno dei suoi prodotti degni di nota è CoCounsel, descritto come il primo assistente legale basato sull’intelligenza artificiale.
CoCounsel è progettato per riassumere documenti legali utilizzando il linguaggio quotidiano, recuperare risorse legali pertinenti, fornire risposte a domande di ricerca e redigere rapidamente lettere ed e-mail legali comuni. La tecnologia dell’azienda è stata adottata in tutto il mercato legale, dai grandi studi legali agli studi individuali, e offre sia funzionalità di ricerca convenzionale che ricerca contestuale basata sull’intelligenza artificiale. Nel 2023, Casetext è stata acquisita da Thomson Reuters, un’importante società di informazione e tecnologia. Il canale YouTube dell’azienda presenta contenuti relativi al suo assistente legale AI CoCounsel e alle sue capacità.
Questo strumento offre funzionalità come la revisione di documenti, la stesura rapida di lettere e email legali, nonché la ricerca e l’analisi di risorse legali rilevanti. CoCounsel è descritto come un’innovazione che fornisce un vantaggio competitivo ai litiganti, aiutandoli in varie attività, dalla ricerca alla preparazione di memorie, alla revisione di documenti e alla preparazione di deposizioni. La piattaforma sfrutta l’IA generativa per offrire un insieme di abilità legali orientate al compito, accelerando e migliorando la qualità di una vasta gamma di attività legali. CoCounsel è stato acquisito da Thomson Reuters, un’importante azienda nel settore dell’informazione e della tecnologia.
Giurimatrix
GiuriMatrix è un software giuridico dotato di Intelligenza Artificiale (IA) progettato per fornire risposte normative a domande poste con linguaggio naturale. Utilizza un’IA generativa per offrire risposte giuridicamente corrette e imparziali, senza essere addestrato specificamente su casi giurisprudenziali. Il software è stato presentato presso diverse istituzioni e utilizza un’approccio basato sulla legge per mitigare problemi nel settore legale. GiuriMatrix è stato sviluppato da un team di esperti e offre funzionalità avanzate per migliorare la qualità del lavoro svolto dai professionisti del settore legale.
www.giurimatrix.it
SImpliciter
In Italia, la situazione non è da meno con l’introduzione di Simpliciter, un assistente legale che combina le capacità dell’intelligenza artificiale generativa con una banca dati giuridica nazionale.
Simpliciter.ai è un’innovativa piattaforma di intelligenza artificiale progettata per assistere gli avvocati nell’analisi dei documenti e nella ricerca legale generativa. Utilizza il modello GPT-4 per fornire risposte accurate e tempestive, combinando modelli di linguaggio con una solida banca dati giuridica. La piattaforma offre un modo innovativo per facilitare il lavoro degli avvocati, consentendo loro di accedere a informazioni legali affidabili e aggiornate. Simpliciter.ai rappresenta un passo avanti nell’integrazione dell’IA negli studi legali, offrendo strumenti avanzati per migliorare la qualità del lavoro svolto dai professionisti del settore legale.
Simpliciter è stato addestrato sui contenuti della normativa e della giurisprudenza italiana, offrendo un supporto innovativo e specializzato ai professionisti del diritto nel paese.
Questi sviluppi sottolineano come l’intelligenza artificiale stia diventando uno strumento sempre più prezioso nel settore legale, non solo per migliorare l’efficienza ma anche per fornire nuove modalità di accesso alle informazioni giuridiche. Tuttavia, è fondamentale che tali tecnologie vengano utilizzate con una comprensione approfondita delle loro potenzialità e limitazioni per garantire che la qualità e l’affidabilità dei servizi legali rimangano inalterate.
https://simpliciter.ai/accounts/login/?next=/a/alberto/subscription/
I rischi connessi
Il “Consiglio degli Ordini Forensi d’Europa” ha preso l’iniziativa, pubblicando una guida per avvocati e studi legali sull’uso responsabile dell’IA. L’obiettivo è duplice: sensibilizzare sulla tecnologia e fornire indicazioni pratiche per la sua implementazione.
La guida pone in evidenza i rischi associati all’uso dell’IA, in particolare la problematica dei dati che possono essere trasferiti al di fuori dell’UE, sottolineando la necessità di conformarsi al Regolamento Generale sulla Protezione dei Dati (GDPR).
Inoltre, si raccomanda una chiara definizione delle modalità di trattamento e conservazione dei dati personali, assicurandosi che le informazioni vengano cancellate una volta raggiunte le finalità prefissate.
Un altro aspetto cruciale è la trasparenza dei sistemi IA. Per contrastare la natura opaca, o “black box”, degli algoritmi, è essenziale che gli utenti siano pienamente informati su come i loro dati vengano trattati.
Inoltre, è fondamentale evitare i bias che possono influenzare i risultati forniti dall’IA, garantendo un processo decisionale automatizzato conforme all’articolo 22 del GDPR.
L’Intelligenza Artificiale e il Futuro della Professione Legale in Europa
In un mondo in cui la tecnologia avanza a passi da gigante, il settore legale non resta a guardare.
Un recente documento emanato dalla “Commissione Nuove Tecnologie” della Fédération des Barreaux d’Europe (FBE) ne è un esempio lampante.
Le linee guida pubblicate ad agosto rappresentano una pietra miliare per l’integrazione dell’intelligenza artificiale nella pratica legale.
L’obiettivo di queste direttive è chiaro: uniformare e standardizzare l’utilizzo dei large language models e dei sistemi di IA generativa tra gli avvocati dell’Unione Europea.
L’adozione di queste tecnologie promette di rivoluzionare il modo in cui gli avvocati svolgono il loro lavoro, offrendo strumenti capaci di analizzare grandi quantità di dati legali, predisporre bozze di documenti e persino fornire consulenze preliminari ai clienti.
La FBE si impegna a garantire che questi strumenti siano usati in maniera responsabile e trasparente, con la dovuta considerazione per la riservatezza e la protezione dei dati personali.
Inoltre, le linee guida puntano a garantire che tutti gli avvocati europei abbiano le stesse opportunità di accesso a questa tecnologia, evitando così disparità tra i diversi stati membri.
Questo documento si rivela quindi essenziale non solo per gli avvocati che devono aggiornarsi su queste nuove tecnologie, ma anche per i legislatori che dovranno creare un quadro normativo adeguato. Inoltre, pone l’Europa come un attore chiave nel dibattito globale sull’etica dell’intelligenza artificiale applicata al diritto.
Sette Sfide per l’Avvocatura nell’Era dell’Intelligenza Artificiale: Una Guida della FBE
L’integrazione dell’intelligenza artificiale nel settore legale è un tema di crescente rilevanza, e la Fédération des Barreaux d’Europe (FBE) non è stata a guardare. Il suo ultimo lavoro analizza sette punti chiave per una corretta adozione dell’IA da parte degli avvocati, con l’obiettivo di massimizzare i benefici e minimizzare i rischi.
1 Comprensione dell’IA Generativa:
Una regola pratica e di buon senso è quella di comprendere a fondo la tecnologia di intelligenza artificiale generativa. Questo principio è ancora più valido per gli avvocati. Il Forum Bar Europeo (FBE) raccomanda di dedicare tempo per approfondire le funzionalità dell’IA e considerare le possibili ripercussioni legali che ne derivano. Questo approccio permetterà agli studi legali di valutare un impiego appropriato e responsabile della tecnologia nella loro pratica professionale.
È essenziale comprendere sia le minacce associate all’apprendimento automatico, come ad esempio parzialità e mancanza di interpretabilità, così come il rischi specifici per LLM e GenAI, come ad esempio le allucinazioni (creazione di informazioni o contenuti che non sono reali ma solo plausibili) e pregiudizi; ricordando sempre che il principio dei sistemi Large language modeling rimane quello di predire il token successivo, ossia la parola in una stringa di parole.
È fondamentale capire sia le problematiche legate all’apprendimento automatico, quali i bias e la difficoltà nell’interpretare i modelli, sia i rischi specifici associati ai Large Language Models (LLM) e all’intelligenza artificiale generativa, come la generazione di allucinazioni, ovvero dati o contenuti non veritieri ma solo verosimili. È importante tenere a mente che il principio cardine dei sistemi di modellazione del linguaggio su larga scala è quello di prevedere il prossimo token, cioè la parola successiva in una sequenza di testo.
2 Riconoscimento delle Limitazioni e del Contesto:
È importante riconoscere i limiti e il contesto specifico del settore legale. Nonostante i notevoli sviluppi, l’intelligenza artificiale generativa presenta delle limitazioni intrinseche. I contenuti prodotti da queste AI potrebbero non essere sempre puntuali, completi o aggiornati. Al momento, le intelligenze artificiali generative sono ottimizzate per generare conversazioni generaliste e potrebbero non essere idonee per applicazioni specialistiche, come quelle legali. Pertanto, è cruciale esaminare attentamente l’output dell’IA prima di utilizzarlo.
3. Rispetto delle Regole sull’Uso dell’IA:
È cruciale per gli avvocati aderire alle normative vigenti sull’utilizzo dell’intelligenza artificiale. Anche se il regolamento UE sull’IA non è ancora stato definitivamente approvato, è fondamentale per i professionisti del diritto familiarizzare e anticipare il rispetto di tale regolamento, oltre a eventuali regolamenti nazionali o linee guida stabilite dagli ordini professionali, anche qualora non fossero formalmente obbligatori.
Inoltre, è essenziale che gli avvocati analizzino scrupolosamente i termini di servizio offerti dai fornitori di intelligenza artificiale generativa per assicurarsi che l’uso di tali tecnologie sia in linea con le norme etiche e legali vigenti.
Considerando la rapidità con cui queste tecnologie si evolvono, gli avvocati devono restare informati sugli ultimi sviluppi e pronti a modificare le proprie prassi professionali per rimanere in linea con i cambiamenti del contesto normativo.
4. Integrazione della Competenza Giuridica:
Integrare le competenze legali con la GenAI. Integrare non significa sostituire. Sistemi di Chat intelligenti possono essere strumenti utili per semplificare i processi nello studio legale e migliorare l’efficienza dei servizi legali. Ma è importante ricordare che GenAI non dovrebbe sostituire il giudizio professionale, l’analisi giuridica e la perizia.
Evitare di fare eccessivo affidamento sui risultati di GenAI è una buona regola; e più importante ancora è ricordare che il processo decisionale deve restare appannaggio umano.
Quando lo studio legale decide di utilizzare chatbot basati su LLM in fase di onboarding; o più in generale, quando il pubblico si rivolge a chatbot “consulenti”, è importante informare dei rischi associati all’affidarsi esclusivamente a questo tipo di pratica.
5. Rispetto del Segreto Professionale:
Con l’adozione crescente di sistemi basati su intelligenza artificiale, gli avvocati devono esercitare una vigilanza costante per garantire che la confidenzialità delle informazioni dei clienti sia salvaguardata.
Questo implica la scelta di soluzioni AI che siano dotate di robuste misure di sicurezza e che siano conformi alle normative sulla protezione dei dati, come il GDPR.
Gli avvocati devono assicurarsi che i dati sensibili non siano esposti a rischi di divulgazione non autorizzata, sia durante l’interazione con sistemi AI sia nel loro processo di apprendimento automatico. Inoltre, è loro responsabilità informare i clienti su come le loro informazioni vengono trattate e assicurarsi che i fornitori di tecnologia AI aderiscano agli stessi standard etici e legali imposti dalla professione legale. In sintesi, l’uso dell’intelligenza artificiale da parte degli avvocati richiede un equilibrio tra l’innovazione tecnologica e l’etica professionale, con la protezione della privacy del cliente al centro di ogni decisione.
6. Protezione dei Dati Personali e Privacy:
Assicurare la protezione dei dati e la privacy è un aspetto fondamentale nell’uso della Gen AI. È necessario svolgere un’analisi meticolosa per verificare che l’impiego della Gen AI sia conforme al Regolamento generale sulla protezione dei dati (GDPR). Gli avvocati devono essere consapevoli che l’inserimento di dati personali in sistemi di Gen AI necessita di una base legale solida e di una verifica di conformità con le normative sulla protezione dei dati e sulla privacy.
Gli strumenti di Gen AI processano i dati non solo per fornire risposte ai prompt, ma anche per migliorare il sistema stesso. I rischi possono essere mitigati utilizzando le API o selezionando opzioni di “opt-out” che aiutano a mantenere separati i dati di input dal sistema in fase di sviluppo. Per assicurare la privacy e la tutela dei dati, è essenziale adottare misure di sicurezza robuste che coprano sia gli aspetti tecnologici sia quelli procedurali, prevenendo l’accesso, l’utilizzo o la divulgazione non autorizzati dei dati personali.
7. Informazione del Cliente e Assunzione di Responsabilità:
Quando uno studio legale decide di implementare strumenti di intelligenza artificiale generativa (Gen AI) nel proprio lavoro, è essenziale che venga fatta una chiara comunicazione ai clienti. Questo comporta spiegare in modo trasparente come tali strumenti vengono utilizzati, i loro scopi, i benefici, le limitazioni e le garanzie di sicurezza, assicurandosi che i clienti capiscano il ruolo e l’estensione dell’uso della tecnologia nell’ambito dei servizi legali forniti.
È altresì fondamentale che lo studio legale si assuma la piena responsabilità dei risultati ottenuti attraverso l’uso della Gen AI, mantenendo la consapevolezza degli obblighi professionali e della possibile responsabilità legale derivante dal loro impiego. Questo include l’essere pronti a rispondere di eventuali errori o problemi che potrebbero sorgere dall’utilizzo di tali strumenti tecnologici avanzati.
La FBE enfatizza che il controllo umano finale è essenziale: ogni output generato dall’IA deve essere attentamente verificato da un avvocato per assicurare che sia accurato e aggiornato. Inoltre, è fondamentale una lettura approfondita dei termini di servizio dei software IA utilizzati, per garantire la conformità agli standard etici e legali.
La sfida sarà bilanciare innovazione e tradizione, tecnologia e tocco umano, per una giustizia più efficiente e accessibile.
La Salvaguardia del Segreto Professionale nell’Era Digitale secondo la FBE
L’avanzata dell’intelligenza artificiale nel settore legale solleva questioni non solo tecniche ma anche etiche e deontologiche.
La Fédération des Barreaux d’Europe (FBE) ha recentemente evidenziato l’importanza di proteggere il segreto professionale nell’era digitale, un principio che si intreccia inevitabilmente con la protezione dei dati personali.
Il segreto professionale è un baluardo della professione legale, e la sua tutela diventa ancora più complessa quando si introduce l’IA nel flusso di lavoro degli avvocati. Ogni dato inserito nei software basati su IA deve essere gestito con estrema cautela, soprattutto quando si tratta di fatti, situazioni o informazioni personali dei clienti.
La normativa GDPR funge da faro in questo scenario, richiedendo una base giuridica adeguata per l’elaborazione dei dati e una valutazione attenta in linea con le regole vigenti.
La responsabilità finale delle azioni legali e delle decisioni prese rimane fermamente nelle mani degli avvocati, che devono assicurarsi che l’intelligenza artificiale sia utilizzata in modo etico e conforme alle normative, preservando l’integrità del loro ruolo e la fiducia dei loro clienti.
Importanza del Segreto Professionale
Il segreto professionale dell’avvocato è uno dei pilastri fondamentali dell’etica legale e della pratica giuridica. Questo principio obbliga l’avvocato a mantenere la riservatezza di tutte le informazioni relative al proprio cliente, acquisite nel corso del rapporto professionale. La sua importanza è riconosciuta a livello globale e trova specifica tutela in molti ordinamenti giuridici, compresi quelli europei.
- Fiducia nel Rapporto Cliente-Avvocato: La fiducia è essenziale in qualsiasi rapporto legale. I clienti devono sentirsi liberi di condividere informazioni delicate con il proprio avvocato, sapendo che queste non verranno divulgate.
- Amministrazione della Giustizia: Il segreto professionale permette agli avvocati di preparare la difesa senza timore che le loro strategie o le informazioni raccolte vengano esposte ai loro avversari o ad altre parti.
- Diritti Umani: Il diritto alla privacy e alla riservatezza è riconosciuto come un diritto umano fondamentale. Il segreto professionale contribuisce a proteggere questi diritti nel contesto legale.
Sfide del Segreto Professionale nell’Era Digitale
Con l’introduzione dell’intelligenza artificiale e di altre tecnologie digitali, il segreto professionale si trova di fronte a nuove sfide:
- Sicurezza dei Dati: L’uso di sistemi informativi e piattaforme digitali comporta rischi per la sicurezza dei dati, che devono essere mitigati attraverso misure tecniche e organizzative adeguate.
- Compliance con GDPR: Nel contesto europeo, il GDPR impone requisiti stringenti per il trattamento dei dati personali, compresi quelli gestiti dagli avvocati.
- Uso di IA e Software: Quando gli avvocati utilizzano software basati su intelligenza artificiale, devono assicurarsi che questi non compromettano il segreto professionale.
Responsabilità degli Avvocati
Gli avvocati hanno la responsabilità di rimanere aggiornati sulle migliori pratiche per proteggere il segreto professionale.
Ciò include la formazione continua su nuovi strumenti legaltech e normative sulla protezione dei dati, così come lo sviluppo di politiche interne per gestire e proteggere le informazioni sensibili.
In conclusione, il segreto professionale rimane un dovere inalienabile dell’avvocato, nonostante le mutate condizioni portate dall’avanzamento tecnologico.
Il microfono del cellulare
Tenere il microfono del cellulare acceso durante i colloqui legali può rappresentare un rischio significativo per il segreto professionale dell’avvocato. Questa pratica espone a diverse minacce potenziali:
- Intercezione di Comunicazioni: Se il dispositivo è compromesso, le conversazioni possono essere intercettate da terze parti non autorizzate, che potrebbero ascoltare o registrare discussioni confidenziali.
- Violazione della Privacy: La presenza di un microfono acceso potrebbe involontariamente catturare dettagli personali o sensibili che dovrebbero rimanere privati tra avvocato e cliente.
- Software di Ascolto e Applicazioni di Terze Parti: Alcune applicazioni installate sul cellulare potrebbero avere permessi che consentono loro di accedere al microfono e di registrare l’audio ambientale, a volte anche in background.
- Problemi di Conformità Legale: A seconda della giurisdizione, la registrazione di conversazioni senza il consenso di tutte le parti coinvolte può essere illegale e portare a sanzioni penali o disciplinari.
Per mitigare questi rischi, è consigliabile adottare alcune precauzioni:
- Disattivare il Microfono: Spegnere il microfono del cellulare o utilizzare una custodia schermante che impedisca la captazione di audio durante i colloqui riservati.
- Politiche di Sicurezza: Implementare politiche di sicurezza aziendale che richiedano la disattivazione dei dispositivi di registrazione in aree dove si svolgono discussioni confidenziali.
- Verifica delle App: Controllare regolarmente le autorizzazioni delle app installate sui dispositivi mobili e limitarne l’accesso al microfono solo quando strettamente necessario.
- Sensibilizzazione: Informare i clienti dei rischi associati all’uso dei dispositivi mobili durante i colloqui e incoraggiarli a prendere precauzioni simili.
AI e (giusto) processo
L’incursione dell’intelligenza artificiale nel sistema giuridico ha aperto nuove frontiere nella dispensazione della giustizia.
L’uso di algoritmi in sede giurisdizionale non è più una prospettiva futuristica, ma una realtà consolidata che vede coinvolte realtà legali di vario genere, dai singoli studi legali fino ai magistrati, particolarmente in territori come gli Stati Uniti.
L’IA si presenta come uno strumento di supporto decisionale, capace di analizzare dati e precedenti giuridici con una velocità e una precisione inarrivabili per la mente umana.
Tuttavia, il suo impiego solleva questioni fondamentali in termini di equità, trasparenza e responsabilità.
Oltreoceano, l’adozione di algoritmi da parte dei magistrati introduce un livello di complessità ancora maggiore.
Qui l’IA potrebbe influenzare decisioni che riguardano la libertà personale, come la determinazione della cauzione o la valutazione del rischio di recidiva. Ciò suscita preoccupazioni legate all’imparzialità dell’algoritmo e alla possibilità che esso possa perpetuare bias esistenti o introdurne di nuovi.
La sfida è garantire che l’impiego dell’IA non solo rispetti ma rafforzi i principi del giusto processo.
È essenziale che gli algoritmi siano trasparenti, soggetti a revisione e che le loro decisioni siano spiegabili e contestabili. Inoltre, la formazione continua per gli operatori del diritto diventa cruciale per comprendere e gestire correttamente queste nuove tecnologie.
Il Caso del “Procuratore Robot” in Cina
Un esempio sorprendente arriva dalla Cina, dove è stato introdotto un “procuratore robot”, un algoritmo capace di elaborare ipotesi accusatorie in totale autonomia.
Il software è stato sviluppato per gestire il crescente volume di lavoro e per velocizzare i processi all’interno dell’ufficio giudiziario più trafficato della Cina.
I ricercatori hanno costruito e testato questo algoritmo, che può analizzare fino a 1000 tratti dalle descrizioni dei casi redatte dagli esseri umani, identificando reati come il dissenso e altri crimini
La crescente integrazione dell’intelligenza artificiale (IA) nel sistema legale cinese ha compiuto un ulteriore passo avanti con l’introduzione di “System 206”, uno strumento IA avanzato utilizzato dalle procure cinesi dal 2016 per accelerare il lavoro degli inquirenti.
Il professor Shi Yong, direttore del laboratorio di big data e gestione della conoscenza dell’Accademia cinese delle scienze e capo del progetto, ha recentemente presentato questo nuovo strumento con capacità evolute.
“System 206” si distingue per la sua abilità nel processare accuse per otto tipi di reati, scelti tra quelli più comuni e facilmente gestibili.
Valuta le prove a carico e la pericolosità sociale sulla base dei report inseriti manualmente dagli operatori umani. I reati per cui è stato “addestrato” includono frode con carta di credito, operazioni di gioco d’azzardo illegali, guida pericolosa, lesioni intenzionali, ostruzione ai doveri ufficiali, furto, frode e una categoria generica che potrebbe tradursi come “provocazione o raccolta di provocazioni per litigi e fomentazione di problemi”.
Quest’ultima categoria, usata spesso per perseguire crimini politici, sarebbe probabilmente considerata troppo indeterminata per essere applicata nell’ordinamento italiano.
la Procura Popolare di Shanghai Pudong ha attirato l’attenzione internazionale per la sperimentazione di un algoritmo di intelligenza artificiale che può “elaborare accuse” con una precisione superiore al 97%, secondo quanto riportato dal South China Morning Post.
Autonomia accusatoria
Questo sistema AI è in grado di presentare un’accusa basandosi su una descrizione verbale del caso.
A differenza dei precedenti sistemi IA impiegati in Cina e altrove, che fungevano principalmente da strumenti di ricerca o analisi forense, “System 206” si propone di entrare direttamente nel processo decisionale dell’accusa. Il modello presentato da Shi Yong potrebbe teoricamente formulare autonomamente un’accusa contro un sospetto, passando da un ruolo di supporto a uno decisivo nel processo legale.
I dubbi le problematiche connesse all’utilizzo dell’intelligenza artificiale in ambito giudiziario
Questo sviluppo segna una svolta significativa nell’uso dell’IA nel campo della giustizia e solleva questioni importanti riguardanti non solo l’efficienza ma anche l’etica e la legalità.
Mentre la capacità di ridurre il carico di lavoro degli inquirenti e di velocizzare i processi è indiscutibile, l’autonomia concessa a un sistema algoritmico nel formulare accuse porta con sé preoccupazioni riguardo alla trasparenza, all’accountability e al rispetto dei diritti legali degli individui.
L’idea di un “Judge Dredd cinese”, come è stato soprannominato dai media, evoca scenari futuristici nei quali l’intelligenza artificiale non solo assiste ma sostituisce i funzionari giudiziari nell’esercizio delle loro funzioni.
Sebbene per ora l’algoritmo sia soltanto uno strumento ausiliario, la prospettiva che possa evolvere in un sistema autonomo di presa di decisioni legali non è più pura fantascienza.
Mentre alcuni esperti accolgono con favore l’innovazione, altri mettono in guardia contro i rischi di affidarsi troppo a sistemi automatizzati, che potrebbero non essere in grado di comprendere le sfumature e i contesti complessi che spesso caratterizzano i casi legali.
La possibilità che un algoritmo possa assumere un ruolo tradizionalmente svolto da un essere umano, specialmente in un contesto delicato come quello giudiziario, è qualcosa che richiede un’analisi attenta e ponderata.
Il “procuratore robot” cinese rappresenta una svolta significativa nella digitalizzazione della giustizia.
Attraverso l’analisi dei dati e l’apprendimento automatico, questo algoritmo può teoricamente formulare accuse basandosi su vasti insiemi di dati legali, identificando schemi e precedenti che potrebbero sfuggire all’occhio umano.
può un algoritmo comprendere il contesto umano e sociale di un’accusa?
Qual è il margine di errore?
E come si può garantire la trasparenza e la contestabilità delle decisioni prese da una macchina?
Queste domande non sono meramente speculative: hanno implicazioni reali per i diritti degli imputati, per la percezione della giustizia da parte del pubblico e per la credibilità stessa del sistema legale.
Il dibattito sulla trasparenza degli algoritmi è centrale: i soggetti coinvolti in un procedimento legale hanno il diritto di sapere come le decisioni che li riguardano vengono prese, specialmente quando queste sono influenzate da sistemi automatizzati.
La questione non è solo tecnica ma anche etica e giuridica, poiché tocca i principi fondamentali del diritto a un processo equo e della possibilità di contestare le prove.
Inoltre, il rispetto dei principi fondamentali del diritto, come la presunzione di innocenza e il diritto a un processo equo, deve rimanere al centro di qualsiasi implementazione tecnologica nel campo legale.
Il caso cinese potrebbe essere solo la punta dell’iceberg.
Man mano che altre giurisdizioni esplorano l’uso dell’IA in contesti simili, la comunità internazionale dovrà affrontare queste sfide insieme, bilanciando innovazione e tradizione, efficienza e etica. La strada verso una giustizia informatizzata è sicuramente disseminata di promesse ma anche di pericoli potenziali, ed è compito di tutti noi navigarla con saggezza e prudenza
Ma non sono in Cina
L’uso dell’intelligenza artificiale (IA) nel sistema giudiziario non è un fenomeno nuovo, e gli Stati Uniti ne sono un esempio emblematico.
In particolare, strumenti di IA sono stati utilizzati per valutare il rischio di recidiva tra i detenuti, influenzando decisioni cruciali come la concessione di misure alternative al carcere o l’assegnazione di premi e benefici ai condannati.
In Germania l’intelligenza artificiale è impiegata nel digital forensics e per il riconoscimento delle immagini.
La giustizia predittiva in Francia si sta sviluppando attraverso piattaforme come Predictice.com, che utilizzano tecniche di machine learning per calcolare le probabilità del risultato di una causa, l’ammontare dei risarcimenti e identificare argomenti rilevanti, basandosi su milioni di leggi, norme e sentenze
Ad esempio, se i dati storici utilizzati per addestrare questi algoritmi contengono bias razziali o socioeconomici, l’IA potrebbe imparare e replicare tali pregiudizi nelle sue previsioni.
La “polizia predittiva” è una realtà anche in Italia, dove è stata impiegata per anticipare il verificarsi di determinati reati o per prevenire il rischio di assembramenti per le norme anti-covid.
Il progetto Giove è un sistema italiano di polizia predittiva che utilizza l’intelligenza artificiale per analizzare i dati e prevedere la possibile commissione di determinati reati. Sviluppato dal Dipartimento di Pubblica Sicurezza del Ministero dell’Interno, il software si basa sull’analisi di migliaia di dati relativi a reati già commessi al fine di stilare una previsione statistica delle possibili attività criminali in determinate aree e periodi. Giove è descritto come “un sistema di elaborazione e analisi automatizzata per l’ausilio delle attività di polizia”, e ha l’obiettivo di migliorare la prevenzione dei crimini, cercando di predire con maggiore precisione dove e quando potrebbero essere commessi determinati reati[1][3]. Il software sfrutta la tecnologia di KeyCrime, un sistema sviluppato per la predizione di rapine commerciali, e può essere utilizzato per individuare tendenze criminali e comportamenti ripetuti che possano condurre ai responsabili[2]. Tuttavia, l’uso della polizia predittiva solleva anche dubbi e criticità, e alcuni esperti evidenziano la necessità di controlli e bilanciamenti per garantirne un’utilizzazione responsabile[5].
L’ex Ministra della Giustizia Italiana, Marta Cartabia, affrontando la tematica dei cosiddetti “giudici robot”, ha nettamente escluso che le decisioni giudiziarie possano essere sostituite da un automatismo completo nella redazione delle sentenze, considerando questa eventualità un caso estremo attualmente non realizzabile.
“Nell’attività giudiziaria si possono distinguere le fasi del conoscere e quelle del decidere – ha continuato la Ministra nel suo intervento – e nella prima, che richiede lo studio dei fatti e delle norme e della giurisprudenza applicabili alla controversia, l’intelligenza artificiale può portare un grande valore aggiunto per la sua immensa capacità di raccogliere ed elaborare dati, con una potenza che sfugge alle umane capacità. Viceversa, il momento del decidere deve rimanere sempre nelle mani del giudice in carne ed ossa, capace di cogliere tutte le sfumature, le peculiarità e le irripetibili specificità di ogni singolo caso”.
Gli studi italiani in materia penale ed il quadro normativo nazionale
In Italia, a differenza degli Stati Uniti o della Cina, non sono ancora in uso strumenti IA avanzati per la formulazione di accuse o la previsione di recidive.
L’impiego dell’intelligenza artificiale nel contesto giuridico italiano si scontra con una serie di limitazioni normative che attualmente ne impediscono l’applicazione diretta nelle decisioni giudiziarie.
DECRETO LEGISLATIVO 18 maggio 2018, n. 51
Attuazione della direttiva (UE) 2016/680 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorita’ competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, nonche’ alla libera circolazione di tali dati e che abroga la decisione quadro 2008/977/GAI del Consiglio. (18G00080) (GU Serie Generale n.119 del 24-05-2018)
Il Decreto Legislativo 51 del 2018, che recepisce la Direttiva UE 16/680, è chiaro: l’articolo 8 pone un divieto all’uso di decisioni automatizzate nel processo decisionale giudiziario, a meno che non vi sia un’espressa autorizzazione derivante dal diritto dell’Unione o dello Stato membro.
l’articolo 8 del Decreto Legislativo 51/2018, che recepisce la Direttiva UE 16/680, è un baluardo contro l’uso indiscriminato dell’intelligenza artificiale (AI) nel processo decisionale giudiziario in Italia.
Art. 8 Processo decisionale automatizzato relativo alle persone fisiche 1. Sono vietate le decisioni basate unicamente su un trattamento automatizzato, compresa la profilazione, che producono effetti negativi nei confronti dell’interessato, salvo che siano autorizzate dal diritto dell’Unione europea o da specifiche disposizioni di legge. 2. Le disposizioni di legge devono prevedere garanzie adeguate per i diritti e le liberta’ dell’interessato. In ogni caso e’ garantito il diritto di ottenere l’intervento umano da parte del titolare del trattamento. 3. Le decisioni di cui al comma 1 non possono basarsi sulle categorie particolari di dati personali di cui all’articolo 9 del regolamento UE, salvo che siano in vigore misure adeguate a salvaguardia dei diritti, delle liberta’ e dei legittimi interessi dell’interessato. 4. Fermo il divieto di cui all’articolo 21 della Carta dei diritti fondamentali dell’Unione europea, e’ vietata la profilazione finalizzata alla discriminazione di persone fisiche sulla base di categorie particolari di dati personali di cui all’articolo 9 del regolamento UE.
Nonostante il divieto attuale, il dibattito sull’eventuale evoluzione legislativa e l’adozione di decisioni automatizzate sia aperto e in costante evoluzione. Questo dibattito è alimentato da una crescente consapevolezza delle potenzialità dell’AI nel migliorare l’efficienza e l’oggettività delle decisioni legali
Tuttavia, la questione etica e la protezione dei dati personali rimangono al centro delle preoccupazioni, come sottolineato in un approfondimento su Ius in Itinere. L’articolo 8 del Decreto Legislativo è stato introdotto proprio per salvaguardare i diritti fondamentali delle persone fisiche nel trattamento dei dati personali a fini giudiziari.
Tuttavia, sono in fase di test strumenti volti a velocizzare le ricerche di precedenti giudiziari, sia nei tribunali ordinari che nelle corti d’appello e nella Corte di Cassazione. Questo tipo di tecnologia potrebbe migliorare l’efficienza della ricerca legale e aiutare i giudici a identificare rapidamente i casi rilevanti, ma anche in questo contesto sorge l’interrogativo sulla chiarezza dei processi decisionali basati sull’IA.
In nessun caso, però, l’intelligenza artificiale ha un processo decisionale autonomo: diventa, piuttosto, uno strumento di convincimento del giudice.
La sentenza del Consiglio di Stato
La questione del bilanciamento tra la segretezza degli algoritmi di intelligenza artificiale e i diritti individuali ha trovato un’eco significativa in una vicenda giudiziaria italiana.
Un caso emblematico si è presentato nel contesto della giustizia amministrativa, dove un candidato escluso da una selezione pubblica per impiego tramite un algoritmo ha chiesto di accedere ai parametri di tale algoritmo.
Il Consiglio di Stato, con la sentenza numero 881 del 4 febbraio 2020, ha preso una decisione fondamentale, stabilendo che l’interesse individuale a conoscere i parametri dell’algoritmo prevale sul segreto commerciale del tool.
Il tema affrontato, quindi, riguardava non tanto l’impiego dell’IA in sede giurisdizionale, quanto piuttosto il diritto dell’interessato a conoscere la base di programmazione dell’intelligenza artificiale.
Il Consiglio di Stato ha affermato che, ai sensi dell’articolo 22,paragrafo 1, del GDPR – letto anche alla luce del Considerando 71 dello stesso Regolamento -, non sono consentiti processi decisionali interamente automatizzati e che, in virtù dell’articolo 15 del GDPR, l’interessato ha il pieno diritto a conoscere la “base algoritmica”.
Il Considerando 71 del Regolamento Generale sulla Protezione dei Dati (GDPR) stabilisce un principio fondamentale di non discriminazione nell’uso degli algoritmi.
Questo principio è essenziale per garantire che i trattamenti automatizzati, inclusa la profilazione, non producano effetti discriminatori basati su caratteristiche sensibili quali razza, opinioni politiche, religione, stato di salute o orientamento sessuale.
Il GDPR richiede che i titolari dei trattamenti adottino procedure matematiche o statistiche adeguate per minimizzare il rischio di errori e inesattezze nei dati che potrebbero portare a discriminazioni. È fondamentale che le misure tecniche e organizzative siano messe in atto per garantire la sicurezza dei dati personali e che ci sia una modalità di trattamento che consideri i potenziali rischi per gli interessi e i diritti degli interessati.
In pratica, questo significa che quando un algoritmo è impiegato in decisioni che hanno un impatto significativo su un individuo, non solo deve essere comprensibile e trasparente, ma deve anche essere privo di pregiudizi.
In caso di potenziali discriminazioni, il GDPR suggerisce che i dati “in ingresso” utilizzati dall’algoritmo debbano essere rettificati per evitare effetti discriminatori nell’output decisionale.
Questo richiede una cooperazione attiva da parte di coloro che programmano e gestiscono tali sistemi decisionali automatizzati [4].
La non discriminazione algoritmica è un tema di rilevanza crescente nell’era dell’intelligenza artificiale, dove gli algoritmi giocano un ruolo sempre più centrale nelle decisioni che possono cambiare la vita delle persone.
La sfida sta nel garantire che queste tecnologie siano utilizzate in modo responsabile e in conformità con i principi di giustizia e uguaglianza sanciti dal diritto europeo.
Il GDPR non prescrive misure specifiche obbligatorie per garantire la sicurezza dei dati, ma lascia ai titolari del trattamento il compito di valutare e implementare le misure più adeguate in base ai rischi associati al tipo di trattamento effettuato.
Secondo il GDPR.eu, l’articolo 22 protegge gli individui dalle decisioni prese esclusivamente sulla base di processi automatizzati, inclusa la profilazione, che hanno un impatto significativo sui loro diritti legali o su aspetti importanti della loro vita.
Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.).
In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano.
Tuttavia è necessario non solo che ci sia un intervento umano, ma che questo sia significativo. Non è sufficiente avere una revisione umana pro forma; l’intervento deve essere sostanziale e in grado di modificare la decisione se necessario.
Questa sentenza si fonda sui principi enunciati nell’articolo 42 della Carta dei diritti fondamentali dell’Unione Europea e nell’articolo 15 del Regolamento europeo 16/679, meglio noto come GDPR.
La sentenza rappresenta un precedente significativo, ponendo le basi per un maggiore equilibrio tra la protezione dei dati personali e la trasparenza nei processi decisionali automatizzati. La decisione del Consiglio di Stato riflette un orientamento giurisprudenziale che privilegia il diritto degli individui di comprendere e contestare le decisioni che li riguardano, specialmente quando queste sono il risultato di processi algoritmici.
Il caso mette in luce l’importanza dell’accessibilità e della trasparenza delle tecnologie IA nel settore pubblico, sottolineando la necessità di garantire che tali sistemi non siano solo giusti e imparziali, ma anche aperti al controllo e alla comprensione da parte dei cittadini.
La sentenza sottolinea la necessità di trasparenza e il diritto dei cittadini a comprendere il processo decisionale automatizzato e che il processo decisionale algoritmico non abbia un effetto discriminatorio.
Le questioni da risolvere e i possibili conflitti all’interno dei singoli stati.
L’interpretazione dell’articolo 22 del GDPR e del relativo Considerando 71 solleva questioni complesse riguardo al processo decisionale automatizzato.
L’articolo 22, in particolare il paragrafo 2, insieme al Considerando 71, contempla le situazioni in cui tale processo decisionale è permesso in base al diritto dell’Unione o al diritto di uno Stato membro.
Questo implica che, nonostante l’articolo 22 del GDPR tenda a limitare le decisioni basate esclusivamente su processi automatizzati, esistono eccezioni legate al diritto specifico di uno Stato membro o dell’Unione.
La giurisprudenza consolidata della Corte di Giustizia dell’Unione Europea riconosce che anche la prassi amministrativa può essere elemento di violazione del diritto dell’Unione.
Ciò significa che una prassi che deleghi completamente la decisione a un algoritmo potrebbe essere considerata come “diritto di uno Stato membro” e quindi potrebbe essere soggetta a rinvio pregiudiziale se ritenuta in contrasto con il diritto dell’Unione .
In un contesto giuridico, questo apre la strada a potenziali impugnazioni davanti alla Corte di Giustizia, laddove le prassi nazionali in termini di decisioni automatizzate entrino in conflitto con i principi del GDPR.
L’articolo 22 e il Considerando 71 del GDPR forniscono una cornice per la tutela dell’individuo dalle decisioni automatizzate, ma i dettagli e i limiti di questa protezione sono ancora oggetto di interpretazione e dibattito.
Le norme europee sono chiare nel richiedere trasparenza e giustificazione nelle decisioni automatizzate, ma come queste si applichino in pratica può variare a seconda delle leggi nazionali e delle prassi amministrative.
In conclusione, mentre il GDPR fornisce un quadro normativo per il processo decisionale automatizzato, la sua applicazione pratica richiede un’attenta considerazione del diritto nazionale e dell’interpretazione giurisprudenziale. La tensione tra l’autonomia degli Stati membri e i principi del diritto dell’Unione rimane un punto focale nel dibattito sulla regolamentazione dell’intelligenza artificiale in Europa.
La sentenza sul caso Loomis
Il “caso Loomis” si riferisce a un controverso episodio giudiziario negli Stati Uniti, in cui l’uso di un algoritmo chiamato COMPAS ha influenzato la decisione della pena.
Nel 2013, Eric Loomis è stato condannato a sei anni di reclusione in Wisconsin.
Durante il processo, i calcoli del COMPAS hanno indicato un alto rischio di recidiva per Loomis, e questo è stato uno dei fattori considerati nella determinazione della pena.
La Corte Suprema del Wisconsin ha affrontato una questione controversa: l’uso di algoritmi nell’ambito giudiziario.
Nel caso di Loomis, un software chiamato COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) è stato utilizzato per valutare il rischio di recidiva di un imputato, influenzando così la sentenza.
il software COMPAS utilizza algoritmi e dati storici per valutare il rischio di recidiva di un individuo condannato. Questi algoritmi considerano una serie di fattori, come ad esempio l’età, la storia criminale e altri elementi, al fine di generare i punteggi di rischio.
Nel dettaglio, il software COMPAS aveva classificato Loomis come individuo ad elevato rischio di recidiva, escludendolo di conseguenza dalla possibilità di beneficiare di alternative al carcere. La questione centrale davanti alla Corte Suprema del Wisconsin riguardava proprio l’uso di tale algoritmo, che secondo l’argomentazione della difesa avrebbe violato il diritto di Loomis a un processo equo, noto come “due process of law”
Il software COMPAS, sviluppato da Northpointe (ora Equivant), genera punteggi di rischio basati su vari fattori e dati raccolti.
Questi punteggi sono destinati a guidare i giudici nelle decisioni relative alle sentenze, suggerendo se un individuo sia a rischio di recidiva o meno.
Nel caso di Loomis, il punteggio di rischio elevato generato dal COMPAS ha contribuito a una sentenza sfavorevole per l’imputato.
Loomis ha contestato l’uso del punteggio COMPAS, sostenendo che violasse i suoi diritti di processo equo, in quanto né lui né il tribunale avevano accesso alla metodologia o alle formule utilizzate dall’algoritmo per generare il punteggio.
La Corte Suprema del Wisconsin ha stabilito che, se utilizzato correttamente, l’uso di una valutazione del rischio COMPAS durante la sentenza non viola il diritto dell’imputato al processo equo. La stessa ha inoltre affermato che l’uso dei punteggi di rischio COMPAS nel caso specifico non era un abuso di discrezione da parte del tribunale e che il tribunale non aveva abusato della sua discrezione considerando le informazioni fornite dal punteggio di rischio.
Il caso Loomis diventa quindi un punto di riferimento per il dibattito sull’integrazione dell’intelligenza artificiale nel diritto penale e sulle implicazioni etiche e legali che ne derivano.
La decione della Corte
La Corte Suprema del Wisconsin ha affermato che il punteggio di rischio era solo uno dei fattori considerati e che la sentenza non sarebbe stata differente senza di esso e, per questo motivo, ha rigettato l’impugnazione, sostanzialmente affermando che la sentenza di primo grado non sarebbe stata diversa senza i risultati dell’algoritmo.
Ma se la sentenza non fosse stata diversa ed il risultato dell’algoritmo fosse solo uno dei molteplici fattori – peraltro non decisivo! – per la sentenza, questo algoritmo, esattamente, a cosa è servito in quel processo?
La Carta etica europea sull’utilizzo dell’AI nei sistemi giudiziari
La Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, adottata dalla Commissione europea per l’efficacia della giustizia (CEPEJ) nel 2018, segna un passo significativo nella regolamentazione etica dell’AI nel contesto giuridico.
Questo documento è fondamentale perché stabilisce principi etici che dovrebbero guidare l’uso dell’AI nei sistemi giudiziari, con l’obiettivo di migliorare l’efficienza senza compromettere la giustizia e le libertà fondamentali.
La Carta riconosce il potenziale dell’AI per incrementare la prevedibilità e la coerenza delle decisioni giudiziarie in ambito civile, commerciale e amministrativo.
Tuttavia, esprime cautela nel suo utilizzo in materia penale, sottolineando la necessità di prevenire discriminazioni e garantire le garanzie di un processo equo, in particolare quando si tratta di dati sensibili.
Questi principi sono un chiaro riferimento alle preoccupazioni relative alla giustizia predittiva e ai possibili bias negli algoritmi.
La CEPEJ sottolinea che, mentre l’AI può contribuire a rendere la giustizia più efficiente, è essenziale che qualsiasi uso rispetti i diritti fondamentali e non introduca nuove forme di discriminazione.
Inoltre, la Carta etica suggerisce che ogni decisione presa con il supporto dell’AI dovrebbe essere sottoposta a revisione umana, in linea con il principio “human in the loop” discusso in precedenza.
La Carta etica della CEPEJ rappresenta quindi un importante punto di riferimento per gli Stati membri del Consiglio d’Europa nel regolamentare l’uso dell’intelligenza artificiale nei loro sistemi giudiziari.
Questo documento è indicativo della crescente consapevolezza europea delle sfide poste dall’integrazione dell’AI nella società e delle necessarie precauzioni etiche che devono accompagnare il suo sviluppo e utilizzo.
I cinque principi della Carta
La Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, adottata dalla CEPEJ nel 2018, stabilisce cinque principi fondamentali per guidare l’impiego responsabile dell’AI nel contesto giuridico.
Questi principi sono progettati per assicurare che l’adozione dell’AI rispetti i diritti umani e promuova la giustizia e l’equità.
- Principio del rispetto dei diritti fondamentali: Questo principio sottolinea l’importanza di garantire che l’uso dell’AI sia in linea con i diritti umani fondamentali. Ciò significa che gli strumenti di AI devono essere progettati e implementati in modo da rispettare la dignità umana, la privacy, la libertà di espressione e altri diritti garantiti a livello europeo e internazionale.
- Principio di non-discriminazione: L’AI deve essere sviluppata per prevenire la discriminazione anziché intensificarla. Ciò implica un’attenzione particolare nella progettazione degli algoritmi per assicurare che non perpetuino pregiudizi esistenti o creino nuove forme di discriminazione tra individui o gruppi.
- Principio di qualità e sicurezza: I dati e le decisioni giudiziarie trattati tramite AI devono basarsi su fonti certificate e dati affidabili. Inoltre, è essenziale che l’AI operi in un ambiente tecnologico sicuro per proteggere l’integrità dei dati e le informazioni sensibili.
- Principio di trasparenza, imparzialità ed equità: Le metodologie utilizzate per il trattamento dei dati devono essere aperte e comprensibili, consentendo verifiche esterne. Questo principio è cruciale per garantire che le parti interessate possano comprendere come l’AI è stata utilizzata nelle decisioni che li riguardano.
- Principio del controllo da parte dell’utilizzatore: L’ultimo principio enfatizza il diritto degli utenti di comprendere e controllare come l’AI viene utilizzata nelle loro interazioni. Ciò significa che gli utenti dovrebbero avere la possibilità di optare per non usare l’AI o di comprendere pienamente le implicazioni delle loro scelte quando interagiscono con sistemi automatizzati.
Questi principi rappresentano un tentativo importante di bilanciare i benefici dell’AI con la necessità di proteggere i valori fondamentali della società. La Carta etica serve come punto di riferimento per gli sviluppatori, i legislatori e gli operatori del sistema giudiziario, sottolineando che l’integrazione dell’AI nei sistemi giudiziari deve essere svolta con cautela e responsabilità.
La sentenza Loomis ha evidenziato l’importanza di alcuni principi etici che trovano riscontro anche nella Carta etica europea della CEPEJ, in particolare per quanto riguarda il rispetto dei diritti fondamentali e il controllo da parte dell’utilizzatore.
Nella sentenza Loomis, i primi due principi citati nella Carta – rispetto dei diritti fondamentali e non-discriminazione – e il quinto principio – il controllo da parte dell’utilizzatore – sono stati esplicitamente discussi.
Questi principi sono stati riconosciuti come essenziali per garantire che l’uso dell’AI nel contesto giuridico non comprometta i diritti individuali e che gli individui abbiano la possibilità di comprendere e contestare le decisioni prese con il supporto dell’AI.
La Carta etica della CEPEJ sottolinea l’importanza che tali strumenti siano conoscibili agli attori del processo, tra cui parti, avvocati e magistrati, per garantire un processo equo e trasparente.
In conclusione, la sentenza Loomis e la Carta etica europea della CEPEJ condividono una visione comune: l’integrazione dell’intelligenza artificiale nei sistemi giudiziari dovrebbe essere accompagnata da un rigoroso rispetto dei diritti umani e da un impegno verso la trasparenza e la responsabilità.
Questo è cruciale per mantenere la fiducia nel sistema giuridico e assicurare che le tecnologie emergenti servano a supportare e non a minare la giustizia.
L’esperimento di Prodigit
Nel 2023, il Ministero dell’Economia e delle Finanze italiano ha investito circa 8 milioni di euro nel sviluppo di un sistema di intelligenza artificiale (IA) destinato al processo tributario.
Prodigit ha l’obiettivo di utilizzare l’intelligenza artificiale per sintetizzare le sentenze delle Commissioni tributarie territoriali, migliorando così l’efficienza e la trasparenza del processo tributario
L’obiettivo del sistema è quello di automatizzare la sintesi delle sentenze di merito, facilitando così la massimizzazione dei giudizi delle Commissioni tributarie territoriali.
Questo progetto punta a incrementare l’efficienza, la trasparenza e l’affidabilità nella conoscibilità dei risultati del processo tributario, allineandosi con i requisiti dell’articolo 22 del GDPR.
Il sistema, denominato Prodigit, sembra non aver sollevato controversie in termini di compliance con il GDPR.
Tuttavia, alcune preoccupazioni sono state espresse dagli operatori del settore.
Una delle questioni sollevate riguarda il potenziale rischio di profilazione delle decisioni dei singoli giudici in base a specifiche questioni, dal momento che una summarization su larga scala consente teoricamente di associare ogni giudice relatore con tipologie particolari di decisioni. Sebbene questi dati siano pubblici e non vi sia una ragione legale che impedisca di collegare un giudice alle sue sentenze, esistono sensibilità diverse riguardo a questa pratica.
In aggiunta, c’è il timore che la sintesi automatizzata delle sentenze possa influenzare la loro massimazione, ovvero la creazione di principi giuridici generali derivati dalle decisioni specifiche. Questo processo potrebbe essere visto come un passo verso la standardizzazione delle decisioni giudiziarie, il che solleva domande sull’impatto che tale pratica potrebbe avere sull’indipendenza del potere giudiziario.
La massimazione, ovvero l’estrazione di principi giuridici dalle sentenze per formare massime, non è un processo neutro. Implica un’astrazione che va dal particolare al generale e, se la summarization non è neutra, nemmeno la massimazione lo sarà.
Le preoccupazioni riguardano in particolare l’uso di modelli come ChatGPT nell’elaborazione delle massime.
Secondo i principi della Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi, è fondamentale assicurare qualità, sicurezza e trasparenza nell’uso dell’AI. Un modello proprietario che non è trasparente nella sua base algoritmica solleva dubbi, soprattutto quando si tratta di questioni di proprietà intellettuale.
Una questione ancora aperta è la conformità dell’uso dei sistemi di generazione automatica di testo nel settore giuridico con le normative sulla protezione dei dati personali, come il GDPR, e con le norme in fase di elaborazione a livello europeo, come l’AI Act.
La creazione di riassunti non solleva problemi sotto il profilo del GDPR poiché le sentenze vengono anonimizzate e sono documenti di dominio pubblico.
Più complessa appare l’analisi della compatibilità con l’AI Act, che identifica alcune applicazioni di intelligenza artificiale come ad alto rischio e impone regolamentazioni rigorose anche per le IA generaliste, come ChatGPT.
Il progetto della Corte di Appello di Brescia
In Italia sono stati avviati progetti innovativi che adottano l’intelligenza artificiale per la giustizia predittiva. Uno di questi, avviato dalla Corte di Appello e dal Tribunale di Brescia in collaborazione con l’Università degli Studi di Brescia, è attivo da novembre 2021 e si concentra attualmente sul diritto del lavoro e sul diritto delle imprese.
Il progetto è accessibile attraverso il sito web degli uffici giudiziari coinvolti.
L’obiettivo è quello di offrire agli utenti e agli operatori economici dati che possano conferire certezza e prevedibilità alle decisioni giudiziarie, con la finalità di ridurre il numero di cause infondate, aumentare la trasparenza delle decisioni giudiziarie, facilitare la coerenza tra le sentenze di primo e secondo grado e risolvere le discrepanze inconsapevoli nella giurisprudenza.
Questo approccio non mira a sostituire i giudici umani ma a fornire un supporto decisionale basato su vasti database di sentenze passate. Il progetto, una collaborazione tra la Corte di Appello di Brescia, il Tribunale di Brescia e l’Università di Brescia, punta a migliorare la prevedibilità e la trasparenza del sistema giudiziario, influenzando positivamente sia l’economia che la giustizia e contribuendo alla creazione di una rete virtuosa.
Il progetto della Corte di Appello di Venezia
Un altro progetto notevole è stato avviato dalla Corte di Appello di Venezia, in collaborazione con l’Università Ca’ Foscari, Unioncamere del Veneto e con il supporto tecnico della Società Deloitte. La prima fase del progetto si è focalizzata esclusivamente sui casi di licenziamento per giusta causa, con l’obiettivo di digitalizzare e analizzare tutte le sentenze emesse nel distretto nel periodo 2019-2021. L’intento è rendere accessibili i precedenti giurisprudenziali e rendere più prevedibili le decisioni future, con la speranza di dissuadere azioni legali che hanno scarse possibilità di successo.
Il progetto della Corte di Appello di Venezia, noto come “Giurisprudenza Predittiva”, è stato realizzato in collaborazione con l’Università Ca’ Foscari di Venezia, Unioncamere del Veneto e altre istituzioni. L’obiettivo del progetto è quello di aumentare l’efficienza dei processi lavorativi e migliorare la qualità ed efficacia delle decisioni giudiziarie[1][2]. Questa iniziativa rientra in un più ampio movimento di sperimentazione in Italia, che coinvolge diverse corti d’appello e tribunali, al fine di integrare l’uso dell’intelligenza artificiale nel contesto giudiziario[4]. Il progetto mira a fornire dati fondamentali per la certezza del diritto e la prevedibilità delle decisioni legali, al fine di offrire orientamenti sugli esiti delle cause, sia agli utenti che agli avvocati[5].
https://cache-tribunale-ca-venezia.edicom.info/news/giurisprudenza-predittiva.html
La black box
Le macchine risultano ancora troppo oscure e difficili da decifrare per quanto riguarda le loro modalità di raggiungimento di specifiche conclusioni, nonché il modo in cui valutano e integrano i vari fattori nella loro analisi.
C’è un crescente desiderio che le macchine siano “intuibili”, ovvero che i principi secondo cui operano possano essere delineati chiaramente; solo in questo modo potremmo ottenere una forma di giustificazione delle loro azioni.
Tuttavia, gli esperti nel campo dell’intelligenza artificiale ci avvertono che questa trasparenza è al massimo parziale.
John Kleinberg, un noto ingegnere informatico, ha osservato che “Forse per la prima volta nella storia, abbiamo costruito macchine le cui modalità operative ci sono sostanzialmente ignote… non comprendiamo veramente la genesi del comportamento che osserviamo, e questa è la vera natura della loro opacità”
Questo passaggio mette in luce una sfida fondamentale nel campo dell’AI: il concetto di “black box”, dove gli algoritmi possono essere così complessi o astratti che anche i loro creatori faticano a spiegare come arrivano a determinate conclusioni. Questa caratteristica dell’AI solleva questioni cruciali riguardanti la responsabilità, la fiducia e la governance, soprattutto quando le decisioni dell’AI hanno un impatto significativo sulla vita delle persone e sui sistemi sociali.
Il Passato come Fondamento: Il Dilemma della Giustizia Algoritmica
L’IA giudiziaria è intrinsecamente legata ai precedenti, poiché si nutre di dati storici per formulare le sue analisi.
Questo aspetto suscita preoccupazioni, poiché un sistema così fortemente ancorato al passato potrebbe non essere adeguatamente attrezzato per affrontare nuove sfide giuridiche o evoluzioni sociali. In Italia, ad esempio, pur non esistendo un vincolo formale ai precedenti al di fuori dei principi di diritto stabiliti dalla Corte di Cassazione, c’è una forte tradizione che vede il giudice come soggetto esclusivamente alla legge.
Un Equilibrio tra Tradizione e Innovazione
Uno degli ostacoli principali all’adozione dell’intelligenza artificiale (IA) nei sistemi giudiziari è la difficoltà di interpretarne il processo decisionale. Questa caratteristica di non trasparenza dell’IA genera dubbi sulla sua capacità di essere resa trasparente, ovvero “conoscibile”, e pone questioni rilevanti riguardo alla sua capacità di fornire giustificazioni comprensibili per le decisioni che influenzano.
La giustizia algoritmica si trova al crocevia tra il desiderio di modernizzazione e l’importanza di mantenere i principi fondamentali del diritto. Mentre l’efficienza e la coerenza sono obiettivi lodevoli, non possono essere perseguiti a scapito della trasparenza e dell’equità. È fondamentale che ogni implementazione dell’IA nel sistema giudiziario sia accompagnata da un dibattito pubblico aperto e da un quadro normativo solido che tuteli sia gli operatori del diritto sia i cittadini.
La Legge Francese e la Protezione dell’Identità dei Giudici
In Francia, la legge n. 2019-222 ha introdotto un divieto specifico contro l’uso dei dati identificativi dei giudici per analisi o previsioni delle loro decisioni. Questa mossa legislativa è stata interpretata come una risposta diretta alle preoccupazioni sulla giustizia predittiva e sulla profilazione dei giudici tramite IA.
La legge francese sembra riconoscere che i dati relativi alle decisioni passate dei giudici, se usati impropriamente, possono portare a conclusioni errate o perfino a una forma di pressione sulle future decisioni giudiziarie.
Le allucinazioni
Due recenti studi universitari hanno messo in luce nuovi aspetti dell’impiego dei modelli di linguaggio a larga scala (LLM) nel campo legale.
Da un lato, l’Università di Stanford ha quantificato il fenomeno delle cosiddette “allucinazioni” dei LLM, ovvero risposte non accurate o inventate, quando questi sistemi vengono interrogati su argomenti giuridici.
Queste “allucinazioni” si verificano quando gli algoritmi IA producono risultati non basati sui dati di addestramento, decodificati in modo errato o senza un pattern riconoscibile, con possibili implicazioni legali ed etiche.
Inoltre le prestazioni degli LLM si deteriorano significativamente, riscontrando allucinazioni nel 75% dei casi, specialmente quando vengono interrogati su sentenze o decisioni specifiche o quando le domande riguardano o i casi più vecchi o quelli più recenti della Corte Suprema, e quelli meno comuni tra quelli dell’ultimo secolo.
Un secondo rischio sistemico identificato dai ricercatori è che i LLM possano contribuire alla “monocultura” giuridica, portando gli utenti verso una prospettiva giudiziaria ristretta e trascurando la diversità delle interpretazioni giuridiche. Questo è preoccupante sia dal punto di vista sostanziale sia per la rappresentanza: i LLM possono sistematicamente escludere i contributi di membri della comunità giuridica.
Le percentuali di allucinazione peraltro valgono per tutte le versioni di base dei LLM più famosi: GPT 3.5 (di OpenAI), Llama 2 (di Meta), and PaLM 2 (di Google).
L’Università di Bologna ha effettivamente sviluppato ricerche nel campo del linguaggio giuridico generativo, mirando a identificare e utilizzare i pattern tipici del linguaggio legale per fornire risposte giuridicamente corrette senza richiedere un addestramento specifico su documenti legali.
Questo approccio potrebbe avere implicazioni significative per l’elaborazione automatica del linguaggio naturale nel contesto legale. Tuttavia, al momento non sono disponibili informazioni dettagliate sui metodi specifici utilizzati per raggiungere questo obiettivo.
L’obiettivo era esplorare le differenze tra il legalese e il linguaggio naturale e come tale conoscenza possa contribuire a superare la sfida della scarsità di dati nella trattazione del linguaggio giuridico, permettendo l’uso di modelli linguistici generali non specificamente addestrati su testi legali.
Il gruppo ha indagato come la complessità delle frasi nei documenti legali possa ostacolare la comprensione da parte dei modelli di linguaggio a larga scala (LLM), e ha identificato un approccio per isolare pattern nel legalese che catturano essenzialmente i concetti giuridici, per poi interrogare efficacemente i LLM.
Il gruppo di ricerca ha sviluppato un Q4EU, un insieme di dati specificamente progettato per l’addestramento di modelli di linguaggio legale a larga scala (LLM). Questo data set è composto da 70 domande e 200 risposte che abbracciano sei differenti ambiti del diritto normativo europeo, tra cui il diritto internazionale privato, il mandato d’arresto europeo, la protezione dei dati e le firme elettroniche, forneo così una risorsa preziosa per l’allenamento di LLM specializzati nel settore legale.
La giustizia predittiva è costituzionalmente complaiant?
L’articolo 101 afferma che la giustizia è amministrata in nome del popolo e l’articolo 102 pone i giudici al di sopra di ogni altro potere dello Stato. Inoltre, l’articolo 111 stabilisce il diritto a un processo equo e imparziale.
L’uso di strumenti di IA nella giustizia predittiva potrebbe, in teoria, migliorare l’efficienza del sistema giudiziario, riducendo i tempi dei processi e fornendo ai giudici strumenti aggiuntivi per le loro valutazioni.
Tuttavia, la vincolatività delle decisioni prese da sistemi automatizzati pone problemi di compatibilità con i principi costituzionali. La Costituzione, infatti, attribuisce ai giudici la responsabilità ultima delle decisioni giudiziarie, presupponendo un processo decisionale umano, consapevole e critico.
Affidare a un algoritmo la capacità di influenzare in modo vincolante le decisioni giudiziarie potrebbe quindi entrare in conflitto con la Costituzione italiana in quanto:
- Autonomia del giudice: L’indipendenza del giudice potrebbe essere compromessa se le sue decisioni fossero subordinate a previsioni algoritmiche.
- Trasparenza e motivazione delle sentenze: I processi decisionali basati su IA spesso mancano di trasparenza a causa della loro natura “black box”, che potrebbe rendere difficile per un giudice motivare adeguatamente la sua sentenza.
- Eguaglianza dei cittadini davanti alla legge: L’uso di algoritmi potrebbe introdurre bias sistemici o discriminazioni nascoste che violano il principio di eguaglianza.
- Diritto al contraddittorio: La difficoltà di comprendere o contestare le valutazioni basate sull’IA potrebbe limitare il diritto delle parti di discutere e confutare le prove contro di loro.
In sintesi, mentre l’innovazione tecnologica può offrire strumenti ausiliari preziosi, la Costituzione italiana richiede che le decisioni finali restino fermamente nelle mani dei decisori umani.
Per garantire che l’uso dell’IA nel sistema giudiziario sia conforme ai principi costituzionali, sarebbe necessario un quadro normativo chiaro che regoli l’integrazione di tali tecnologie, assicurando che i giudici mantengano il controllo finale sulle decisioni e che i diritti dei cittadini siano salvaguardati.
In astratto, invece, non è ipotizzabile una vincolatività per decisori umani – procuratori o giudici – a strumenti di intelligenza artificiale a Costituzione invariata.
ChatGPT, l’Intelligenza Artificiale usata in un tribunale colombiano
ChatGPT è stato impiegato in Colombia per assistere nella stesura di una sentenza di secondo grado, creando un caso di riferimento nell’ambito della giustizia in America Latina.
Il giudice Juan Manuel Padilla ha utilizzato il software durante la redazione delle argomentazioni a supporto della sua decisione su una causa che coinvolgeva il pagamento di spese mediche.
Nonostante il giudice abbia esercitato il proprio giudizio in modo indipendente, ha utilizzato il chatbot per affinare la formulazione del testo della sentenza.
Questo solleva questioni sulla funzione del giudice nell’era dell’intelligenza artificiale.
Il giudice Padilla ha difeso l’uso di ChatGPT, sottolineando che l’obiettivo non è quello di sostituire il giudice con la tecnologia, ma piuttosto di migliorare la qualità e l’efficienza del suo lavoro. Secondo lui, l’integrazione di testi generati dall’IA nelle sentenze non mira a rimpiazzare il processo decisionale del giudice, ma a ottimizzare i tempi di redazione delle stesse.
ChatGPT è stato impiegato in Colombia per assistere nella stesura di una sentenza di secondo grado, creando un caso di riferimento nell’ambito della giustizia in America Latina. Il giudice Juan Manuel Padilla ha utilizzato il software durante la redazione delle argomentazioni a supporto della sua decisione su una causa che coinvolgeva il pagamento di spese mediche.
Nonostante il giudice abbia esercitato il proprio giudizio in modo indipendente, ha utilizzato il chatbot per affinare la formulazione del testo della sentenza. Questo solleva questioni sulla funzione del giudice nell’era dell’intelligenza artificiale.
Il giudice Padilla ha difeso l’uso di ChatGPT, sottolineando che l’obiettivo non è quello di sostituire il giudice con la tecnologia, ma piuttosto di migliorare la qualità e l’efficienza del suo lavoro. Secondo lui, l’integrazione di testi generati dall’IA nelle sentenze non mira a rimpiazzare il processo decisionale del giudice, ma a ottimizzare i tempi di redazione delle stesse.
il caso in Perù
In Perù, l’intelligenza artificiale è stata utilizzata per determinare l’assegno di mantenimento che un padre doveva versare per la figlia in un caso di divorzio. La piattaforma di intelligenza artificiale OpenAI – Chat GPT è stata impiegata per calcolare il contributo dovuto da ciascun genitore in base al proprio reddito, al fine di stabilire le spese di mantenimento della figlia
L’algoritmo ha stabilito che il padre dovesse versare il 20% del suo reddito per il sostentamento della figlia. Questo uso dell’intelligenza artificiale rappresenta un esempio innovativo nell’ambito della giustizia familiare, anche se in Italia l’uso di Chat GPT è attualmente bloccato dal Garante della privacy. Per ulteriori dettagli, l’articolo completo è disponibile su ItaliaOggi.
https://www.italiaoggi.it/news/assegno-di-mantenimento-dei-figli-decide-chat-gpt-2598613
Conclusioni
Intelligenza Artificiale e Giustizia Predittiva: Una Sfida per la Trasparenza e la Tutela dell’Uomo
Nel panorama giuridico contemporaneo, l’Intelligenza Artificiale (IA) si staglia come un gigante dalle molteplici facce. Da una parte, promette efficienza e velocità, dall’altra solleva dubbi e perplessità, soprattutto quando si avventura nel delicato settore della giustizia predittiva. Quest’ultima, applicazione che si nutre di dati per preconfezionare soluzioni, incarna l’apice di un dibattito ancora infiammato: fino a che punto possiamo affidarci alle decisioni di un algoritmo?
La giustizia predittiva, che sembra sottrarre all’uomo il suo ruolo di giudice e difensore, come delineato dagli artt. 84 e 113 c.p.c., non è che l’ultima frontiera di un dibattito più ampio che interroga la trasparenza delle operazioni algoritmiche. Il fil rouge che lega le digressioni apparentemente collaterali è la necessità di rendere le decisioni algoritmiche non solo visibili ma comprensibili, trasformando il codice in regole giuridiche rispettose delle tutele individuali.
La sfida è ardua: come tradurre il dataset di un algoritmo in una norma chiara per i suoi destinatari? Come garantire il diritto di difesa e di accesso ai dati sensibili per chi viene “inciso” dall’IA? La risposta sembra risiedere nella possibilità di “cavalcare la tigre” della rivoluzione digitale non con passività, ma con la consapevolezza che l’intelligenza umana deve rimanere al timone.
Il lavoro umano, dunque, non viene escluso ma si configura come il regolatore supremo dell’IA. Nonostante gli sconvolgimenti portati dalle nuove tecnologie, l’uomo resta al centro del processo produttivo e cognitivo. Questo non esenta dal considerare i rimedi risarcitori per gli utenti dell’IA, come suggerisce la proposta della Commissione Europea di una nuova direttiva sulla Product Liability, che cerca di adeguare la tutela dei consumatori all’era digitale.
In questo contesto, le recenti sentenze giurisprudenziali impongono limiti all’utilizzo dei meccanismi algoritmici e ribadiscono l’importanza di un uso non discriminatorio e giusto dell’IA. La giustizia amministrativa, in particolare, ha sottolineato che l’algoritmo non può ridurre le tutele procedurali, rafforzando i principi di trasparenza e obiettività.
In conclusione, se da un lato l’IA può sembrare un mare tempestoso di incognite e sfide, dall’altro rappresenta un oceano di opportunità se navigato con saggezza e previdenza. È essenziale che la società civile, il mondo accademico e il legislatore lavorino insieme per assicurare che la marcia inarrestabile dell’innovazione tecnologica non travolga i diritti fondamentali dell’uomo, ma anzi li protegga e li valorizzi nell’era digitale.