
Introduzione: L’IA da laboratorio a realtà quotidiana – un mondo ridisegnato
Per decenni, l’intelligenza artificiale è stata un orizzonte affascinante ma spesso distante, confinato nei laboratori di ricerca e nei racconti di fantascienza. Abbiamo vissuto “inverni” dell’IA, periodi di scetticismo e finanziamenti ridotti, alternati a momenti di grande entusiasmo.
Ma il 2023 ha segnato un cambiamento epocale. Grazie all’esplosione di modelli linguistici di grandi dimensioni (LLM) come ChatGPT e alla diffusione di potenti strumenti per generare immagini e codice, l’IA è uscita prepotentemente dai laboratori per entrare nelle nostre vite, nei nostri uffici, nelle nostre conversazioni. Siamo entrati in una nuova era, una “primavera” o forse già un'”estate” dell’IA, caratterizzata da progressi tangibili e un’adozione su larghissima scala.
Ma questa accelerazione senza precedenti porta con sé una complessità enorme. Come sta evolvendo realmente questa tecnologia? Chi la sta guidando? Quali sono i veri benefici e quali i rischi nascosti? Per rispondere a queste domande fondamentali, l’Institute for Human-Centered Artificial Intelligence (HAI) dell’Università di Stanford pubblica annualmente l’AI Index Report.
Giunto alla sua settima edizione, il report del 2024 si presenta come la mappatura più completa e dettagliata mai realizzata , una bussola indispensabile per navigare le acque agitate ma piene di potenziale dell’intelligenza artificiale. Basato su dati rigorosi provenienti da fonti globali, il rapporto non offre facili risposte, ma fornisce gli strumenti per comprendere una rivoluzione che, come sottolinea Stanford, “influenza la società come mai prima d’ora” .
Oltre l’umano? le capacità straordinarie (e i limiti ostinati) dell’IA
Il cuore pulsante del report riguarda le capacità tecniche dell’IA. I risultati sono impressionanti: in numerosi test standardizzati (benchmark), i sistemi IA più avanzati oggi superano le prestazioni medie umane.
Pensiamo alla classificazione di immagini (dove l’IA ha raggiunto livelli sovrumani già nel 2015), alla comprensione basica della lingua inglese, o persino ad alcuni compiti di ragionamento visivo.
Il 2023 è stato l’anno dei modelli “multimodali“, capaci di operare fluidamente su diversi tipi di dati. Sistemi come GPT-4 di OpenAI (che ora può “vedere” immagini), Gemini di Google (che gestisce testo, codice, audio e immagini) e Claude 3 di Anthropic rappresentano un salto qualitativo significativo.
Possono analizzare un grafico, scrivere codice funzionante, conversare in decine di lingue e persino spiegare l’ironia di un meme. Google Gemini Ultra ha persino raggiunto, per primo, un punteggio pari a quello umano sul complesso benchmark MMLU, un test che misura la comprensione linguistica su 57 materie diverse.
Tuttavia, il report smorza facili entusiasmi. L’IA attuale, per quanto potente, mostra limiti evidenti quando si esce dai compiti ben definiti. Come affermano i co-direttori del report, “non può gestire in modo affidabile i fatti, eseguire ragionamenti complessi o spiegare le sue conclusioni” . L’IA fatica ancora enormemente con:
Ragionamento astratto e causale: capire il perché delle cose, non solo le correlazioni nei dati.
Pianificazione a lungo termine: elaborare strategie complesse che richiedono l’anticipazione di conseguenze multiple.
Comprensione profonda del contesto: andare oltre il significato letterale per cogliere sfumature, ironia o implicazioni culturali.
Affidabilità fattuale: i modelli possono ancora “allucinare”, inventando informazioni plausibili ma false, un problema serio in campi come la medicina o il diritto.
Creatività genuina: sebbene possano generare testi o immagini stilisticamente convincenti, manca una vera originalità o intenzione artistica paragonabile a quella umana.
“Immaginate un assistente incredibilmente erudito che ha letto quasi tutti i libri del mondo,” potremmo dire parafrasando le conclusioni del report, “ma che ogni tanto confonde le date storiche, non sa spiegare perché un evento ne ha causato un altro, e talvolta inventa di sana pianta citazioni o interi paragrafi. Questa è, in parte, l’IA di oggi.”
L’oilimpo dell’IA: un club esclusivo con costi da capogiro
Chi sono gli artefici di questi potenti, seppur imperfetti, cervelli digitali? Il report conferma in modo schiacciante il dominio dell’industria privata, in particolare dei giganti tecnologici. Nel 2023, l’industria ha sfornato 51 modelli IA “notevoli” (quelli che definiscono lo stato dell’arte), mentre il mondo accademico ne ha prodotti solo 15.
La ragione principale è l’esorbitante costo dell’addestramento. Il report di Stanford fornisce stime inedite e impressionanti: si parla di circa 78 milioni di dollari per addestrare GPT-4 e addirittura 191 milioni per Gemini Ultra di Google. Questi costi, che includono potenza di calcolo, energia, ingegnerizzazione e gestione dati, sono diventati paragonabili a quelli di grandi progetti scientifici o infrastrutturali, rendendo quasi impossibile per le università competere nella creazione dei modelli più grandi e potenti.
Questo squilibrio ha conseguenze significative. Alimenta la “fuga dei cervelli”: nel 2022, oltre il 70% dei neolaureati con dottorato in IA ha scelto una carriera nell’industria, contro il solo 20% rimasto in ambito accademico – un’inversione drammatica rispetto a un decennio fa, quando le percentuali erano quasi pari. Inoltre, concentra un potere enorme – quello di definire le frontiere dell’IA – nelle mani di poche aziende private, sollevando questioni sulla direzione futura della ricerca, sull’accesso democratico alla tecnologia e sulla diversità delle prospettive.
Sul fronte geografico, gli Stati Uniti mantengono la leadership nella produzione dei modelli più citati e performanti, ma la Cina continua a dominare nel numero di brevetti depositati in materia di IA, suggerendo forse una strategia più orientata all’applicazione diffusa e alla protezione della proprietà intellettuale. Interessante anche il dinamismo dell’open source: nel 2023 sono stati rilasciati 149 “modelli fondamentali” (grandi modelli riutilizzabili), più del doppio dell’anno precedente, e ben il 65,7% di questi era open source, un segnale di crescente apertura. Tuttavia, il report nota che i modelli più performanti in assoluto rimangono spesso proprietari e chiusi, evidenziando una tensione costante tra accessibilità e prestazioni di punta.
La febbre dell’oro generativa: investimenti alle stelle
Se gli investimenti privati complessivi in IA hanno segnato un leggero calo per il secondo anno consecutivo, un settore ha vissuto una vera e propria esplosione: l’IA generativa. L’ondata di interesse pubblico scatenata da ChatGPT, Midjourney e simili si è tradotta in una pioggia di finanziamenti. Nel 2023, gli investimenti in startup di IA generativa hanno raggiunto la cifra record di 25,2 miliardi di dollari, quasi otto volte l’importo del 2022 e trenta volte quello del 2019.
Aziende come OpenAI (sviluppatrice di ChatGPT), Anthropic (creatrice di Claude), Inflection AI e piattaforme come Hugging Face hanno chiuso round di finanziamento miliardari, dimostrando l’enorme scommessa del capitale di rischio su questa nuova frontiera dell’IA. Questo boom ha più che compensato il calo in altre aree, portando l’IA generativa a rappresentare oltre un quarto di tutti gli investimenti privati in IA nel 2023.
L’IA al lavoro: più produttivi, ma attenti alla supervisione
Da anni si discute del potenziale dell’IA di rivoluzionare il mondo del lavoro. Il 2023 ha finalmente fornito dati più concreti. Diversi studi rigorosi, citati nel report, confermano che l’IA può aumentare significativamente la produttività e la qualità del lavoro in diversi settori.
Velocità e Qualità: consulenti aziendali che hanno usato GPT-4 hanno completato i loro compiti il 25% più velocemente e con una qualità superiore del 40% rispetto ai colleghi senza accesso all’IA.
Programmatori che usano assistenti IA come GitHub Copilot scrivono codice più rapidamente. Agenti di call center con supporto IA gestiscono il 14,2% di chiamate in più all’ora.
Riduzione del divario di competenze: un dato particolarmente interessante è che l’IA sembra beneficiare maggiormente i lavoratori meno esperti. Nello studio sui consulenti, chi partiva da un livello di abilità inferiore ha visto un miglioramento delle prestazioni del 43% con l’IA, contro il 16,5% dei colleghi più esperti. L’IA agisce come un “equalizzatore“, portando i meno abili più vicini ai top performer.
Il rischio della fiducia cieca: ,a c’è un rovescio della medaglia. Uno studio su reclutatori HR ha mostrato un effetto paradossale: chi usava un’IA considerata molto affidabile (“good AI”) commetteva più errori di chi usava un’IA presentata come imperfetta (“bad AI”). ] La spiegazione? La troppa fiducia nell'”IA buona” portava a un calo dell’attenzione e del controllo critico umano (“automation complacency”), mentre la consapevolezza dei limiti dell'”IA cattiva” manteneva i reclutatori più vigili. Questo suggerisce che l’interazione uomo-IA ottimale richiede un equilibrio delicato tra fiducia e scetticismo critico.
Non sorprende, quindi, che le aziende prevedano cambiamenti significativi: secondo un sondaggio McKinsey riportato nell’Index, il 43% delle organizzazioni si aspetta una riduzione del personale nei prossimi tre anni a causa dell’IA, e una larghissima maggioranza prevede la necessità di una massiccia riqualificazione (reskilling) dei dipendenti esistenti.
Scienza e medicina: l’IA come partner nella scoperta
Forse l’impatto più profondo e potenzialmente trasformativo dell’IA si sta manifestando nel campo della ricerca scientifica e medica. L’IA non è più solo uno strumento per analizzare dati, ma sta diventando un vero e proprio partner nel processo di scoperta.
Ottimizzazione fondamentale: AlphaDev di Google DeepMind ha utilizzato l’apprendimento per rinforzo per scoprire algoritmi di ordinamento (un’operazione base dell’informatica) più efficienti di quelli sviluppati in decenni di lavoro umano. Questi nuovi algoritmi sono già stati integrati nelle librerie software standard usate da milioni di sviluppatori, con un impatto potenzialmente enorme sull’efficienza computazionale globale.
Scienza dei materiali accelerata: GNoME, sempre di Google, ha analizzato dati esistenti per predire la stabilità di milioni di nuove strutture cristalline, scoprendone 2,2 milioni di inedite. Molte di queste potrebbero avere proprietà utili per batterie più efficienti, celle solari migliori, superconduttori o nuovi farmaci, accelerando drasticamente un processo di scoperta tradizionalmente lento e costoso.
Medicina potenziata: nel 2023 sono emersi sistemi IA notevoli: EVEscape per prevedere l’evoluzione virale e guidare lo sviluppo di vaccini; AlphaMissense per classificare l’impatto patogeno di milioni di mutazioni genetiche ]; modelli come GPT-4 Medprompt che dimostrano una conoscenza medica paragonabile a quella di esperti umani su test standardizzati; e strumenti diagnostici come PANDA che promettono di individuare tumori difficili come quello al pancreas con maggiore accuratezza e precocità rispetto alla media dei radiologi.
Questi progressi sono entusiasmanti, ma anche in questo campo emergono sfide etiche, come garantire che gli strumenti diagnostici non perpetuino bias razziali o di genere presenti nei dati storici e assicurare che l’uso dell’IA migliori effettivamente la cura del paziente senza sostituire il giudizio clinico umano.
IA responsabile: la sfida più grande
Man mano che l’IA diventa più potente e pervasiva, la questione di come garantirne uno sviluppo e un utilizzo sicuro, etico ed equo diventa la sfida centrale. Il capitolo del report dedicato all'”IA Responsabile” evidenzia una serie di problemi critici che richiedono attenzione urgente:
Il Far West dei Test: manca un accordo su come testare e riportare in modo standardizzato la sicurezza, l’equità e l’affidabilità dei modelli IA. Le principali aziende usano benchmark diversi, rendendo difficile per chiunque – regolatori, clienti, pubblico – capire quali modelli siano davvero più “responsabili”.
L’incubo deepfake: la capacità di creare audio, video e immagini false ma iperrealistiche (deepfake) sta migliorando rapidamente. Questo non solo minaccia l’integrità delle elezioni, ma apre la porta a truffe personalizzate, campagne di discredito e alla diffusione di materiale intimo non consensuale (come nel caso dei deepfake di Taylor Swift. Rilevare questi falsi è sempre più difficile.
Memoria indiscreta e copyright violato: un problema crescente è la tendenza degli LLM a “memorizzare” e riprodurre parti dei dati su cui sono stati addestrati. Questo può includere informazioni personali sensibili estratte da forum online o interi brani di testi protetti da copyright , come evidenziato dalle cause legali intentate da autori ed editori contro le aziende IA. Risolvere questo conflitto tra la fame di dati dei modelli e i diritti individuali e d’autore è una sfida tecnica e legale enorme.
Specchio deformante dei bias: l’IA non è neutrale. Riflette, e spesso amplifica, i pregiudizi presenti nei dati con cui viene addestrata e nelle culture dei team che la sviluppano. Il report cita studi che confermano bias politici in ChatGPT e la preoccupante tendenza di alcuni modelli medici a perpetuare stereotipi razziali dannosi e scientificamente infondati.
La scatola nera: molti dei sistemi IA più avanzati funzionano in modi che nemmeno i loro creatori comprendono appieno. Questa mancanza di trasparenza (“black box problem” ) non solo erode la fiducia, ma rende anche difficile diagnosticare errori, garantire l’equità o prevenire usi malevoli. L’Indice di Trasparenza dei Modelli Fondamentali (FMTI) rivela che la maggior parte degli sviluppatori ha ancora molta strada da fare in termini di apertura.
Incidenti in aumento: Il database degli incidenti legati all’IA (AIID) ha registrato un aumento del 32,3% degli eventi nel 2023, segnalando che i problemi non sono solo teorici ma si manifestano sempre più spesso nel mondo reale.
Governi e Cittadini: tra regolamentazione e apprensione
Di fronte a questa complessa realtà, i governi di tutto il mondo stanno intensificando i loro sforzi per governare l’IA. Il 2023 è stato un anno di svolta normativa:
Attività legislativa globale: le menzioni dell’IA nei dibattiti parlamentari globali sono quasi raddoppiate, raggiungendo 2.175 menzioni in 49 paesi diversi.
Regolamentazione USA: negli Stati Uniti, il numero di regolamenti federali sull’IA è aumentato del 56,3%, e le proposte di legge a tema IA sono più che raddoppiate. L’Ordine Esecutivo del Presidente Biden ha stabilito nuovi standard per la sicurezza e l’affidabilità dell’IA.
AI Act Europeo: l’Unione Europea ha raggiunto un accordo politico sul suo AI Act, la prima legislazione orizzontale al mondo che adotta un approccio basato sul rischio per regolamentare le applicazioni IA.
Cooperazione internazionale: si sono tenuti incontri internazionali come l’AI Safety Summit nel Regno Unito, che ha prodotto la Dichiarazione di Bletchley, un impegno globale (firmato anche da USA e Cina) sulla sicurezza dell’IA.
Questa intensa attività politica riflette, e forse insegue, un’opinione pubblica sempre più consapevole ma anche inquieta. I sondaggi globali Ipsos mostrano che se da un lato cresce la percezione dell’impatto imminente dell’IA (66% prevede cambiamenti profondi nei prossimi 3-5 anni, dall’altro aumenta il nervosismo (52% si dice nervoso, +13 punti dal 2022). Negli USA, secondo Pew Research, la maggioranza degli americani (52%) è ora più preoccupata che entusiasta riguardo all’IA, un balzo notevole rispetto al 38% del 2022.
La fiducia è bassa soprattutto riguardo all’impatto economico: pochi credono che l’IA migliorerà il proprio lavoro (37%), l’economia nazionale (34%) o il mercato del lavoro in generale (32%). L’ottimismo varia significativamente: è maggiore nei paesi in via di sviluppo, tra i giovani (Gen Z e Millennial), e tra le persone con reddito e istruzione più alti, mentre è più basso nei paesi occidentali sviluppati, tra i Boomer e tra le fasce meno abbienti e istruite della popolazione.
Diversità: un imperativo ancora lontano
Un’ultima nota dolente riguarda la diversità nel settore IA. Perché è importante? Perché team di sviluppo omogenei tendono a creare tecnologie che riflettono i propri bias e che potrebbero non funzionare bene o addirittura danneggiare gruppi sottorappresentati.
Nonostante alcuni progressi nella diversità etnica degli studenti di informatica in Nord America, il campo rimane poco rappresentativo. In Europa, in particolare, il divario di genere è ancora enorme: in molti paesi, le donne rappresentano meno del 20-25% dei laureati in discipline informatiche a tutti i livelli, e i progressi sono lenti. Costruire un’IA che sia veramente al servizio di tutta l’umanità richiede un impegno molto più forte per includere prospettive diverse.
Conclusione: navigare la rivoluzione con consapevolezza
L’AI Index Report 2024 ci consegna l’immagine vivida di una tecnologia in piena esplosione, un motore di progresso senza precedenti ma anche una fonte di sfide complesse e potenzialmente destabilizzanti. La velocità dell’innovazione è sbalorditiva, i costi per rimanere alla frontiera sono diventati proibitivi per molti, l’impatto sulla nostra vita lavorativa e sociale è già tangibile e destinato a crescere, mentre le questioni etiche, di sicurezza e di governance si fanno sempre più urgenti.
In questo scenario dinamico e carico di incertezze, la missione dell’AI Index – fornire dati rigorosi, imparziali e accessibili – assume un valore inestimabile. Non possiamo permetterci di navigare questa trasformazione alla cieca. Abbiamo bisogno di monitoraggio costante, di ricerca indipendente, di un dibattito pubblico informato e di una governance agile e ponderata, capace di massimizzare i benefici dell’IA minimizzandone i rischi. Il futuro non è predeterminato; le scelte che faremo oggi – come individui, comunità, nazioni e specie – plasmeranno il ruolo che l’intelligenza artificiale avrà nel nostro domani. Comprendere a fondo la mappa fornita da report come questo è il primo, indispensabile passo.