Introduzione
Nell’era della digitalizzazione e dell’automazione avanzata, il diritto del lavoro si trova a un importante bivio.
La questione degli obblighi di informazione collettiva diventa particolarmente pregnante quando si considerano i sistemi integralmente automatizzati.
Questi ultimi, pur rappresentando un passo avanti nell’efficienza operativa, sollevano interrogativi fondamentali riguardo alla loro interazione con le normative sindacali.
La condotta omissiva e la comunicazione insufficiente in contesti così tecnologicamente avanzati possono costituire forme di antisindacalità, minando i diritti dei lavoratori a essere informati adeguatamente sulle condizioni che impattano direttamente la loro vita lavorativa.
Impatto dell’Automazione
Gli algoritmi nei processi decisionali nel mondo del lavoro rappresentano una trasformazione significativa, influenzando sia la gestione delle risorse umane che le dinamiche di potere e controllo all’interno delle organizzazioni.
Questa evoluzione, spesso descritta come “algocrazia”, vede l’intelligenza artificiale (AI) e il machine learning assumere ruoli precedentemente riservati al giudizio umano, portando a una digitalizzazione dei processi decisionali che può avere impatti profondi sul rapporto di lavoro.
Rivoluzione Digitale e Diritto del Lavoro
La rivoluzione digitale ha introdotto l’uso di algoritmi nei processi decisionali del management, trasformando radicalmente l’impresa e il lavoro. Questi cambiamenti hanno reso possibile la sostituzione delle capacità umane, decisionali e di giudizio con programmi automatici o semi-automatici che gestiscono dati personali e comportamentali dei lavoratori.
Questo ha portato a processi decisionali automatizzati o semi-automatizzati, influenzando significativamente la gestione del personale, l’organizzazione del lavoro, e le condizioni contrattuali.
Impatti sull’Organizzazione del Lavoro
Gli algoritmi hanno il potenziale di incrementare il controllo sulla prestazione lavorativa, disumanizzando le decisioni prese e rendendole non discutibili.
La sfida principale nell’adozione di processi algoritmici è affrontare l’opacità di questi sistemi, che operano attraverso processi computazionali complessi, spesso con un coinvolgimento umano minimo o inesistente[1].
Sfide e Opportunità
L’adozione di algoritmi decisionali presenta sia sfide che opportunità.
Da un lato, possono migliorare l’efficienza e l’efficacia dei processi decisionali, supportando il management nell’interpretazione dei dati e nella guida degli algoritmi.
Dall’altro, la diffidenza nei confronti del nuovo e la mancanza di competenze adeguate rappresentano ostacoli significativi.
La sinergia uomo-macchina emerge come la strada vincente, dove gli algoritmi servono come sistema di supporto alle decisioni umane, mantenendo la componente irrazionale e la sensibilità che un algoritmo difficilmente potrebbe replicare.
Sentenza del Tribunale di Torino del 5 agosto 2023
Il 5 agosto 2023, il Tribunale di Torino ha emesso una sentenza importante riguardante il settore del food delivery.
La società Foodinho, che rappresenta la multinazionale Glovo in Italia, è stata condannata per attività antisindacale.
Questa decisione è stata presa al termine di un processo promosso dalle organizzazioni sindacali NIdiL, Filcams e Filt CGIL
La sentenza ha aggiunto elementi significativi in termini di trasparenza algoritmica, imponendo alle piattaforme di food delivery di chiarire il funzionamento dei loro algoritmi. Questo dovrebbe rendere le logiche di funzionamento dei sistemi più prevedibili e trasparenti, e includere misure per prevenire decisioni discriminatorie
Questo importante verdetto si pronuncia anche sulla portata dell’obbligo informativo che grava sui datori di lavoro nei confronti dei rappresentanti dei lavoratori.
La sentenza evidenzia l’antisindacalità di una condotta omissiva e di una comunicazione ritenuta insufficiente, soprattutto quando si tratta di sistemi integralmente automatizzati e ha posto l’accento sulla necessità di una correttezza e specificità dell’informativa, sottolineando che una genericità non è adeguata per rispettare i diritti informativi dei lavoratori in un contesto così fortemente influenzato dall’automazione.
Massima
È antisindacale il comportamento della società che rifiuta di comunicare alle oo.ss. le informazioni previste dalla legge in caso di utilizzo di sistemi decisionali o di monitoraggio integralmente automatizzati, ossia di sistemi che adottano decisioni senza richiedere l’intervento umano. Sono del pari insufficienti a poter ritenere adempiuto l’obbligo legale le informazioni a contenuto generico, non dettagliato, non verificabile e prive di indicazione degli aspetti del rapporto di lavoro su cui i sistemi impattano.
Il Caso di Automazione e Trasparenza Sindacale
La controversia nasce dal rifiuto dell’azienda di condividere informazioni dettagliate con le organizzazioni sindacali (oo.ss.), come richiesto dall’articolo 1-bis del decreto legislativo n. 152/1997, aggiornato da normative successive.
Queste informazioni sono cruciali quando si utilizzano sistemi decisionali o di monitoraggio che funzionano senza intervento umano diretto, poiché influenzano significativamente le condizioni di lavoro dei dipendenti.
La mancanza di comunicazione da parte dell’azienda è stata valutata come antisindacale.
Questo giudizio si basa sul principio che tale omissione danneggia il ruolo legale del sindacato, ostacolando l’esercizio delle sue funzioni protettive nei confronti dei lavoratori.
Il tribunale, con una dettagliata motivazione ha inoltre stabilito che le informazioni fornite in un secondo momento dalla società non erano sufficienti a soddisfare l’obbligo legale: esse sono state giudicate non esaustive, non corrette e troppo generiche per essere utili.
Le soluzioni giuridiche – I diritti di informazione collettiva
La questione fondamentale è chi ha effettivamente il diritto di ricevere queste informazioni, ovvero la “titolarità del diritto all’informativa”.
Il tribunale ha riconosciuto questo diritto alle organizzazioni sindacali che hanno presentato il ricorso, basandosi sul fatto che sono le più rappresentative.
Il tribunale ha riconosciuto questo diritto alle organizzazioni sindacali che hanno presentato il ricorso, basandosi sul fatto che sono le più rappresentative.
In altre parole, queste organizzazioni hanno dimostrato di avere il maggior numero di membri o il maggiore impatto nel settore, e quindi la legge riconosce loro il privilegio di ricevere informazioni importanti dai datori di lavoro.
I datori di lavoro non possono negare informazioni critiche alle sedi territoriali dei sindacati che rappresentano la maggioranza dei lavoratori, anche se non ci sono rappresentanti sindacali aziendali (rsa/rsu) presenti. Questa decisione sottolinea che i diritti dei sindacati e dei lavoratori individuali non sono intercambiabili ma piuttosto complementari: fornire informazioni a un lavoratore non esime il datore di lavoro dal fornire le stesse informazioni al sindacato.
Il mancato rispetto di questi obblighi informativi da parte dei datori di lavoro è considerato un atto antisindacale.
Questo perché impedisce ai sindacati di svolgere pienamente le loro funzioni legali, come monitorare, confrontarsi e intervenire in questioni che riguardano i diritti dei lavoratori.
La corretta informazione è essenziale per i sindacati per esercitare questi diritti in modo efficace, poiché senza di essa, non possono proteggere adeguatamente gli interessi dei lavoratori che rappresentano.
Più articolato il percorso argomentativo del giudice in ordine all’esaustività delle informazioni trasmesse
Questa decisione sottolinea che i diritti dei sindacati e dei lavoratori individuali non sono intercambiabili ma piuttosto complementari: fornire informazioni a un lavoratore non esime il datore di lavoro dal fornire le stesse informazioni al sindacato.
Il tribunale ha chiarito che il mancato rispetto di questi obblighi informativi da parte dei datori di lavoro è considerato un atto antisindacale: questo perché impedisce ai sindacati di svolgere pienamente le loro funzioni legali, come monitorare, confrontarsi e intervenire in questioni che riguardano i diritti dei lavoratori.
La corretta informazione è essenziale per i sindacati per esercitare questi diritti in modo efficace, poiché senza di essa, non possono proteggere adeguatamente gli interessi dei lavoratori che rappresentano.
Il tribunale ha esaminato attentamente il tipo di sistemi usati dall’azienda per prendere decisioni e monitorare i lavoratori.
Ha distinto tra sistemi che sono completamente automatizzati, cioè funzionano senza alcun intervento umano, e sistemi che non lo sono, che quindi possono richiedere una certa supervisione o input da parte delle persone.
La legge stabilisce quali informazioni devono essere condivise con i sindacati quando si usano questi sistemi automatizzati, per assicurarsi che i sindacati possano comprendere e valutare l’impatto di queste tecnologie sul lavoro dei dipendenti.
In pratica, il tribunale ha cercato di capire se l’azienda avesse comunicato in modo adeguato, fornendo tutti i dettagli necessari affinché i sindacati potessero fare il loro lavoro di rappresentanza e tutela dei lavoratori in modo efficace. Questo processo di verifica meticolosa è fondamentale perché assicura che i diritti dei lavoratori e dei loro rappresentanti siano rispettati nell’era dell’automazione.
- Gli scopi e le finalità del sistema: il tribunale ha giudicato che le informazioni non erano corrette perché la società agiva come datore di lavoro diretto e non come intermediario. Questo significa che aveva responsabilità specifiche nel comunicare chiaramente perché e come stava usando questi sistemi automatizzati.
- I dettagli tecnici del sistema: il tribunale ha esaminato con attenzione come la società programmasse e addestrasse i suoi sistemi automatizzati, incluso il modo in cui venivano valutate le prestazioni dei lavoratori. Questo esame è stato ancor più minuzioso, poiché questi dettagli sono cruciali per comprendere l’impatto dei sistemi sul lavoro quotidiano dei dipendenti.
Il tribunale ha identificato alcune carenze nelle informazioni comunicate dalla società ai sindacati.
In particolare, sono stati evidenziati diversi punti dove le spiegazioni sono risultate insufficienti:
- Feedback dei clienti: La società non ha fornito dettagli su come i feedback positivi o negativi dei clienti influenzassero il punteggio dei rider. Non c’erano informazioni precise su quanto un punteggio potesse aumentare o diminuire in base a queste valutazioni.
- Criteri di punteggio: Non sono stati divulgati i criteri specifici utilizzati per abbassare il punteggio di un rider, né è stato spiegato come venisse applicato il “fattore di decalage”, che potrebbe essere un meccanismo di aggiustamento del punteggio.
- Variazioni geografiche: La società non ha chiarito perché il punteggio potesse variare a seconda della città in cui il rider lavorava, lasciando un’incertezza significativa sulle politiche locali.
- Correzione per feedback negativi: Manca una spiegazione su come i feedback negativi influenzassero il punteggio in relazione al numero totale degli ordini effettuati dal rider.
- No show: Non è stato specificato quale fosse l’impatto sul punteggio del rider nel caso non si presentasse al check-in per un turno prenotato senza aver annullato la disponibilità in anticipo.
Intelligenza Artificiale e Futuro del Lavoro: Una Svolta Trasparente è Possibile?”
Nell’era digitale, l’intelligenza artificiale (IA) sta emergendo come una forza trainante dietro le quinte delle strategie aziendali.
La sua capacità di analizzare vasti set di dati e identificare tendenze e modelli non evidenti all’occhio umano la rende un asset inestimabile per le imprese.
Tuttavia, l’adozione sempre più diffusa di sistemi decisionali automatizzati solleva questioni significative riguardo alla trasparenza e all’impatto sulle dinamiche lavorative.
L’IA può ottimizzare la produttività e individuare opportunità inaspettate, ma può anche portare a decisioni che hanno un impatto diretto sui lavoratori, come cambiamenti nei turni lavorativi, nelle valutazioni delle prestazioni o addirittura nei licenziamenti. In questo contesto, la sentenza ha sottolineato che non è sufficiente fornire informazioni generiche o incomplete; le organizzazioni sindacali hanno il diritto di comprendere pienamente come le decisioni vengano prese e come gli algoritmi influenzino tali decisioni.
La chiarezza e la specificità sono diventate imperativi legali.
Questo non solo garantisce che i diritti dei lavoratori siano salvaguardati, ma promuove anche una cultura aziendale basata sulla fiducia e sulla collaborazione.
Le imprese che abbracciano questa trasparenza possono godere di una maggiore armonia nel luogo di lavoro e di un dialogo costruttivo con le forze lavoro.
L’automazione non deve escludere l’umanità dalle decisioni aziendali. Anche se un algoritmo può suggerire una particolare direzione, la responsabilità e l’etica devono rimanere nelle mani degli umani, specialmente quando sono in gioco il benessere e i diritti dei lavoratori.
Incremento dell’Accuratezza Diagnostica: Il Ruolo Chiave della Trasparenza nell’IA
Un recente studio pubblicato sul Journal of the American Medical Association (JAMA) ha evidenziato l’impatto diretto che un modello di intelligenza artificiale (IA) ben calibrato può avere sulla prestazione professionale nel settore sanitario.
Secondo la ricerca, quando il personale medico è adeguatamente formato sull’utilizzo di un sistema di IA e riceve spiegazioni chiare sui risultati elaborati dall’algoritmo, l’accuratezza delle diagnosi può aumentare di 4,4 punti percentuali.
Questo dato non solo sottolinea l’importanza della qualità dell’IA, ma anche il valore della trasparenza e dell’educazione nel suo impiego.
La ricerca mette in luce un aspetto cruciale: la presenza di “distorsioni e pregiudizi incontrollati” in un modello di IA può ridurre drasticamente l’accuratezza delle diagnosi, fino a 11,3 punti percentuali.
Questo serve da monito per le aziende che adottano tecnologie automatizzate, siano esse nel food delivery o nella sanità: la mancanza di trasparenza non solo è eticamente discutibile ma può avere conseguenze tangibili e negative.
La sentenza del Tribunale di Torino, menzionata in precedenza, assume ora un’importanza ancora maggiore.
Essa non solo richiede trasparenza nelle decisioni aziendali ma può avere implicazioni più ampie, influenzando come le tecnologie basate sull’IA dovrebbero essere implementate e comunicate in tutti i settori.
La chiarezza sull’uso degli algoritmi e la formazione degli utenti diventano quindi essenziali per assicurare che l’automazione supporti e non ostacoli le competenze umane.
Questo studio è un esempio eccellente di come una corretta implementazione dell’IA possa servire da leva per migliorare non solo l’efficienza operativa ma anche la qualità dei servizi, evidenziando l’importanza di una collaborazione sinergica tra tecnologia e umanità.
L’Importanza di Modelli di IA Affidabili nella Pratica Medica
Lo studio citato nel Journal of the American Medical Association (JAMA) non solo dimostra il potenziale dell’IA nell’aumentare l’accuratezza diagnostica, ma sottolinea anche i rischi connessi all’utilizzo di modelli di IA non ottimizzati.
Un sistema di IA ben progettato e allineato agli obiettivi clinici può notevolmente potenziare le competenze dei medici e migliorare i risultati per i pazienti. Tuttavia, un modello che incorpori distorsioni sistematiche può avere l’effetto opposto, degradando la qualità delle cure mediche.
L’implicazione è chiara: anche con una formazione adeguata, se un modello di IA è intrinsecamente distorto, i medici possono essere indotti in errore.
Ciò potrebbe non solo perpetuare ma anche intensificare pregiudizi preesistenti (bias), portando a diagnosi errate e potenzialmente dannose. Questo pone l’accento sulla responsabilità degli sviluppatori di IA e delle organizzazioni sanitarie di garantire che i sistemi impiegati siano privi di pregiudizi e accuratamente validati.
Questi risultati paralleli dalla sanità rafforzano la tesi della sentenza del Tribunale di Torino: la trasparenza e la correttezza dei sistemi automatizzati sono essenziali. Nel contesto lavorativo, come in quello medico, l’IA deve essere utilizzata in modo responsabile. Le aziende devono fornire non solo formazione ma anche assicurare che i modelli di IA siano privi di distorsioni che possano influenzare negativamente le decisioni o le condizioni lavorative.
La sentenza ha quindi un’eco che va oltre il singolo caso giudiziario: stabilisce un principio di trasparenza e responsabilità che trova applicazione in tutti i campi professionali dove l’IA ha un ruolo decisivo.
Il futuro del lavoro e della cura medica richiede un impegno congiunto per lo sviluppo di tecnologie etiche che migliorino le nostre capacità senza compromettere la qualità umana e professionale.
Strategie di Mitigazione dei Rischi nell’Uso dell’IA: Un Quadro Multisettoriale
La ricerca e l’esperienza pratica nel settore sanitario offrono lezioni preziose per la gestione dei rischi associati all’uso dell’intelligenza artificiale, lezioni che si applicano a tutti i settori economici.
La mitigazione efficace di questi rischi può essere conseguita attraverso diverse strategie.
Primo la formazione mirata è fondamentale: gli utenti dei modelli di IA devono essere consapevoli dei loro limiti e delle potenziali distorsioni. Questa consapevolezza permette agli utenti di rilevare anomalie e distorsioni che potrebbero altrimenti passare inosservate.
Secondo, è utile sviluppare strumenti esplicativi in collaborazione con gli utenti finali. Questi strumenti possono aiutare ad adattare i modelli di IA alle esigenze pratiche e cognitive specifiche di un dato contesto, migliorando così l’affidabilità e l’utilità del sistema.
Terzo, i flussi informativi prodotti dai modelli di IA dovrebbero essere standardizzati e presentati in un linguaggio chiaro e accessibile. La trasparenza dei processi decisionali automatizzati è essenziale per costruire fiducia e consentire un controllo efficace da parte degli utenti.
Infine, una rigorosa validazione del modello di IA è indispensabile. Questo dovrebbe includere test specifici per identificare e correggere eventuali distorsioni prima che il modello sia operativo. Tale validazione aiuta a prevenire l’introduzione di errori sistematici nelle decisioni prese dall’IA.
Nel contesto lavorativo, come nel campo della salute pubblica, l’adozione responsabile dell’IA è fondamentale per garantire che le sue potenzialità siano sfruttate senza compromettere la qualità delle prestazioni professionali o i diritti dei lavoratori.
Queste strategie non solo aumentano la sicurezza e l’efficacia nell’utilizzo dell’IA ma pongono anche le basi per un dialogo costruttivo tra tecnologia, etica e legge, un dialogo che sarà cruciale per navigare il futuro del lavoro e della società in generale.
La Normativa Europea sull’IA e l’Impatto sulle Pratiche Aziendali
L’importanza di un approccio responsabile e regolamentato all’uso dell’intelligenza artificiale (IA) è stata ulteriormente sottolineata dall’adozione di misure normative a livello europeo.
Il Titolo III dell’Artificial Intelligence Act, come concordato recentemente in sede di trilogo, stabilisce linee guida chiare per i fornitori di sistemi di IA ad alto rischio.
Queste norme includono l’obbligo per i fornitori di adottare un sistema di gestione del rischio (articolo 9) e della qualità (articolo 17), nonché una governance specifica per la gestione dei dati utilizzati nell’addestramento dei modelli (articolo 10). Inoltre, è richiesto che venga fornita all’utente una documentazione tecnica dettagliata (articolo 11) e che il funzionamento del sistema sia basato sul principio di trasparenza, garantendo agli utenti la possibilità di interpretare i dati in maniera corretta (articolo 13).
Un altro aspetto fondamentale è il design di un sistema che permetta un’attività di sorveglianza e verifica continua del funzionamento del sistema di IA (articolo 14), assicurando che il funzionamento sia coerente con le finalità perseguite e mantenga un adeguato livello di accuratezza (articolo 15).
Queste disposizioni legali rafforzano il principio che i sistemi di IA devono essere sicuri, trasparenti e governati da un quadro etico solido.
La sentenza del Tribunale di Torino, in questo senso, non solo si allinea con queste nuove normative ma ne anticipa anche lo spirito, enfatizzando l’esigenza di trasparenza e accountability nei sistemi decisionali automatizzati.
L’integrazione di tali normative nella prassi aziendale non solo risponde a un obbligo legale ma diventa un imperativo etico, garantendo che l’innovazione tecnologica proceda di pari passo con la tutela dei diritti individuali e collettivi.
Il cammino verso un utilizzo etico e responsabile dell’IA è complesso e richiede un impegno congiunto da parte dei legislatori, delle aziende e degli utenti finali. La direzione intrapresa dall’Unione Europea con l’Artificial Intelligence Act è un passo importante verso la creazione di un ecosistema digitale che sia sicuro, equo e trasparente, dove la tecnologia serve l’uomo e non il contrario.
Responsabilità e Affidabilità nell’Uso di Modelli di IA: Il Cammino Verso l’Eccellenza Decisionale
Le misure adottate a livello europeo e gli obblighi specifici delineati nell’Artificial Intelligence Act non sono soltanto un quadro di riferimento regolamentare, ma rappresentano anche pietre miliari per la costruzione di un ambiente digitale affidabile.
L’osservanza di questi obblighi sia da parte dei fornitori che degli utenti (articolo 29) è cruciale per rafforzare la fiducia nei modelli di IA. Essa assicura che tali modelli possano essere utilizzati in modo consapevole e prudente, migliorando le competenze professionali degli utenti e, di conseguenza, la solidità e l’efficienza dei processi decisionali.
L’adozione di un modello di IA conforme alle normative vigenti non solo assicura la conformità legale ma contribuisce anche ad affinare l’acume decisionale degli utenti finali.
Questo processo di miglioramento continuo si traduce in una maggiore precisione nelle diagnosi mediche, come dimostrato dallo studio citato in precedenza, e in una maggiore efficacia nelle strategie aziendali.
In conclusione, la sentenza del Tribunale di Torino, insieme agli studi sul campo e alle normative europee, fornisce un chiaro messaggio: l’integrazione responsabile dell’IA nei processi decisionali non è solo un imperativo etico ma anche un vantaggio competitivo. Essa apre la strada a un futuro in cui la tecnologia supporta l’eccellenza umana piuttosto che sostituirla, garantendo decisioni più informate, etiche e trasparenti in ogni settore.