BUSINESS ETHICS

Il problema della fiducia nell’IA

Dodici rischi persistenti dell’IA che spingono allo scetticismo

Bhaskar Chakravorti

Gennaio 2025

Il problema della fiducia nell’IA

Illustration by Gabriel Corbera

CON DECINE DI MILIARDI investiti nell’IA l’anno scorso e attori di primo piano come OpenAI in cerca di altri trilioni, l’industria tecnologica sta correndo per aumentare la disponibilità di modelli di IA generativa. L’obiettivo è mostrare costantemente prestazioni migliori e, così facendo, colmare il divario tra ciò che gli esseri umani possono fare e ciò che può essere realizzato con l’IA.

C’è, tuttavia, un altro divario che dovrebbe avere la stessa priorità, se non addirittura maggiore, quando si pensa a questi nuovi strumenti e sistemi: il gap di fiducia nell’IA. Questo divario si colma quando una persona è disposta ad affidare a una macchina un lavoro che altrimenti sarebbe stato affidato a persone qualificate. È essenziale investire nell’analisi di questa seconda lacuna, poco apprezzata, e in ciò che si può fare al riguardo, se si vuole che l’IA venga adottata su larga scala.

Il gap di fiducia nell’IA può essere inteso come la somma dei rischi persistenti (sia reali che percepiti) associati all’IA; a seconda dell’applicazione, alcuni rischi sono più critici di altri. Questi riguardano sia l’apprendimento automatico predittivo che l’IA generativa. Secondo la Federal Trade Commission, i consumatori esprimono le loro preoccupazioni in merito all’IA, mentre le aziende sono preoccupate per diversi problemi a breve e lungo termine. Consideriamo 12 rischi legati all’IA che sono tra i più comunemente citati da entrambi i gruppi:

- Disinformazione

- Sicurezza e protezione

- Il problema della scatola nera

- Problemi etici

- Pregiudizi

- Instabilità

- Allucinazioni nei Large Language Model (LLM)

- Incognite sconosciute

- Perdita del lavoro e disuguaglianze sociali

- Impatto ambientale

- Concentrazione dell’industria

- Eccesso di potere da parte dello Stato

L’effetto cumulativo di questi rischi contribuisce all’ampio scetticismo dell’opinione pubblica e alle preoccupazioni delle aziende nei confronti della diffusione dell’IA. Questo, a sua volta, ne scoraggia l’adozione. Ad esempio, i radiologi esitano ad adottare l’IA quando la natura di scatola nera della tecnologia impedisce una chiara comprensione di come l’algoritmo prenda decisioni sulla segmentazione delle immagini mediche, sull’analisi della sopravvivenza e sulla prognosi. Garantire un livello di trasparenza sul processo decisionale degli algoritmi è fondamentale perché i radiologi sentano di adempiere responsabilmente ai loro obblighi professionali, ma questa necessaria trasparenza è ancora molto lontana; e il problema della scatola nera è solo uno dei tanti rischi di cui preoccuparsi. Considerati i problemi simili in diverse situazioni applicative e settori, dobbiamo aspettarci che il divario di fiducia nell’IA sia permanente, anche se stiamo migliorando nella riduzione dei rischi.

Ciò ha tre implicazioni principali. In primo luogo, a prescindere dai progressi compiuti nel migliorare le prestazioni dell’IA, i suoi utilizzatori – utenti domestici e aziendali, responsabili delle decisioni nelle organizzazioni, responsabili politici – devono superare un persistente gap di fiducia. In secondo luogo, le aziende devono investire nella comprensione dei rischi maggiormente responsabili del gap di fiducia che incide sull’adozione delle loro applicazioni, e lavorare per mitigarli. In terzo luogo, l’accoppiamento degli esseri umani con l’IA sarà lo strumento più essenziale per la gestione del rischio, il che significa che avremo sempre bisogno di esseri umani che ci guidino attraverso il divario – e gli esseri umani devono essere addestrati in modo appropriato.

Consideriamo i 12 rischi. Per ognuno di essi, ci sono quattro domande: In che modo minano la fiducia nell’IA? Quali sono le opzioni – avviate dal settore o richieste dalle autorità di regolamentazione – per mitigare o gestire il rischio? Perché le opzioni offrono al massimo un rimedio parziale che permette al rischio di persistere? Quali sono le lezioni apprese e le implicazioni? Nel complesso, questi elementi contribuiscono a delineare il divario di fiducia nell’IA, a spiegare perché è prevedibile che persista e a spiegare cosa si può fare al riguardo. 

 

[1]

Disinformazione

La disinformazione online non è nuova, ma gli strumenti di IA l’hanno potenziata. I deep fake assistiti dall’intelligenza artificiale hanno accompagnato le elezioni dal Bangladesh (dove un leader dell’opposizione è stato riprodotto in bikini) alla Moldavia (dove un falso filmato del presidente che appoggiava il partito filorusso è circolato prima delle elezioni), dando agli elettori motivi per non fidarsi delle informazioni essenziali necessarie per il funzionamento delle democrazie. Alla fine del 2023, l’85% degli utenti di Internet era preoccupato per la propria incapacità di individuare i contenuti falsi online, un problema serio in vista delle principali elezioni del 2024 in tutto il mondo.

Le aziende di social media non stanno affrontando la minaccia, poiché la maggior parte di esse ha ridotto drasticamente i moderatori di contenuti umani, che sono la difesa più efficace contro la disinformazione. La più grande società di piattaforme, Meta, ad esempio, ha ridotto drasticamente i team di moderazione dei contenuti, ha accantonato uno strumento di fact-checking che era in fase di sviluppo e ha cancellato i contratti con moderatori di contenuti esterni come parte del suo “anno di efficienza” nel 2023. Ora la piattaforma è alle prese con una marea di bizzarri contenuti generati dall’IA e guidati dalla pubblicità, a dimostrazione del fatto che gli algoritmi di raccomandazione dei social media sono un’altra forma di IA che può essere manipolata. Il ridimensionamento deciso da Meta è stato speculare a quello di YouTube, che ha tagliato il suo team di moderazione dei contenuti, e di X, con uno smantellamento ancora più drastico. (Sebbene Tik Tok non abbia subito lo stesso livello di tagli nei suoi team di moderazione dei contenuti, deve difendersi da un’altra serie di preoccupazioni: i timori per la sicurezza compromessa e la privacy dei dati degli utenti). La moderazione algoritmica/automatizzata dei contenuti spesso offerta al posto della moderazione umana è tutt’altro che adeguata.

In assenza di azioni di mitigazione avviate dall’azienda, la responsabilità ricade sulle autorità di regolamentazione, che stanno intervenendo per obbligare le aziende ad agire. Negli Usa, diversi Stati hanno presentato proposte di legge per contrastare la disinformazione e i deep fake legati alle elezioni. La Casa Bianca ha emanato un ordine esecutivo che richiede il “watermarking”, cioè un’etichettatura chiara, dei contenuti creati dall’IA, come richiesto anche dall’AI Act recentemente approvato dall’UE. Altrove, il governo indiano ritiene le aziende di social media responsabili per i contenuti segnalati come dannosi e non rimossi.

Tuttavia, queste misure di gestione del rischio, che hanno le migliori intenzioni, possono avere conseguenze indesiderate, in quanto le piattaforme potrebbero semplicemente allocare le limitate risorse di moderazione ai mercati con maggiori pressioni normative, piuttosto che investire in attività dirette a una maggiore moderazione. Gli Stati Uniti o l’Unione europea otterranno un’allocazione eccessiva a scapito del resto del mondo, in particolare dei Paesi in via di sviluppo, dove le richieste normative e commerciali sono più basse, anche se in queste aree ci sono molti più utenti. È dimostrato che ciò stava già accadendo prima dei recenti tagli: Il Wall Street Journal ha scoperto che, nel 2020, l’87% del tempo di moderazione dei contenuti di Facebook è stato dedicato ai post negli Stati Uniti, nonostante il 90% degli utenti di Facebook non fosse statunitense.

La lezione è che dobbiamo accettare la dura realtà che la disinformazione sarà difficile da eliminare. A seconda di dove ci si trova nel mondo, potrebbe addirittura aumentare in volume e – con la crescente sofisticazione dei deep fake assistiti dall’intelligenza artificiale – nel grado di ingannevolezza. La vigilanza umana e l’educazione all’”igiene digitale” saranno essenziali.

 

[2]

Sicurezza e protezione

Le prospettive dei rischi per la sicurezza dell’IA sono preoccupanti. Nel più grande sondaggio mai condotto tra gli esperti di IA e apprendimento automatico, tra il 37,8% e il 51,4% di tutti gli intervistati ha attribuito una probabilità di almeno il 10% a scenari catastrofici come l’estinzione degli esseri umani, con addirittura il 48% degli ottimisti netti che ha fissato tale probabilità al 5%. È difficile pensare che valutazioni così terribili possano essere considerate accettabili per qualsiasi altra tecnologia attualmente in fase di larga adozione. Esistono, naturalmente, rischi meno apocalittici: casi di utilizzo malevolo degli strumenti di IA nei cyberattacchi, procedure “jailbreaking” per eseguire comandi illegali, ecc. Nello stesso sondaggio, situazioni come la possibilità che l’IA subisca un jailbreak sono state considerate relativamente alte – la maggior parte degli intervistati le ha giudicate “probabili” o “molto probabili” – anche nell’anno 2043.

Ancora una volta, le normative sono fondamentali per mitigare tali rischi. L’ordine esecutivo della Casa Bianca e i regolamenti dell’UE richiedono che i modelli generativi di IA al di sopra di una certa soglia di rischio pubblichino i risultati di attacchi simulati “red-team” per identificare le vulnerabilità: detto questo, non è chiaro se tali requisiti possano essere efficaci nell’eliminare il rischio. Quel che è peggio è che misure come i requisiti di red-team possono incoraggiare un illusorio “teatro della sicurezza”. Esistono pochi standard su metodi e criteri di red-teaming infallibili e, anche se le normative impongono una certa trasparenza, è difficile confermare che tali sforzi siano stati esaustivi. È improbabile che le start-up abbiano le risorse per svolgere questo lavoro internamente o per garantire i test sulla provenienza esterna, introducendo così nuove fonti di vulnerabilità man mano che i loro prodotti si inseriscono nel più ampio ecosistema dell’intelligenza artificiale o che l’onere dei costi scoraggi le start-up all’inizio.

La lezione più importante, come molti esperti ritengono, è che i rischi per la sicurezza e la protezione dell’IA sono impossibili da eliminare nel prossimo futuro. Ciò significa che la consapevolezza e la preparazione saranno fondamentali e per le applicazioni più critiche e di vita o di morte – dalla sicurezza nazionale all’assistenza sanitaria – sarà importante mantenere gli esseri umani nel circuito, assicurando che le decisioni non siano mai completamente automatizzate; ad esempio, nei negoziati altamente sensibili tra le nazioni dotate di armi nucleari, gli accordi dovrebbero garantire che le decisioni relative al lancio di test o missili rimangano nelle mani degli esseri umani.

 

[3]

Il problema della scatola nera

La trasparenza è essenziale per creare fiducia. Nel caso dell’IA, ciò può includere l’informazione agli utenti quando interagiscono con un modello di IA, la possibilità di spiegare come questo ha prodotto un determinato risultato e la consapevolezza delle informazioni di cui hanno bisogno le parti interessate, che devono essere fornite in termini comprensibili. Le principali normative, come l’AI Act dell’UE, imporranno determinati standard di trasparenza, ma la sfida sempre presente è che gli incentivi per le aziende di IA le incoraggiano a ridurla al minimo per preservare il vantaggio competitivo e la proprietà intellettuale, per prevenire hacking dolosi e ridurre l’esposizione a cause legali sul copyright. Per questo motivo, l’IA è spesso un black box, una scatola nera: non è chiaro perché produca i risultati che produce.

Un approccio alla trasparenza guidato dall’industria è parte del fascino dello sviluppo di IA open-source, ma anche questo ha dei limiti. Ci sono troppi input nei modelli di IA – dai dati di addestramento al codice usato per pre-elaborarli e governare il processo di addestramento, l’architettura del modello, ecc. Le aziende usano quest’ambiguità come copertura per inventare le proprie definizioni e nascondere la componente chiave – i dati di addestramento, compresi quelli “sintetici” – alla vista del pubblico. Persino aziende come Meta, che sostengono modelli open-source, con il passare del tempo stanno diventando meno “aperte”: il suo modello Llama 2 è molto meno trasparente di Llama 1. E persino Llama 2, uno standard di settore per quanto riguarda la trasparenza, ha ottenuto solo 54 punti su 100 nel punteggio di trasparenza dello Stanford Center for Research on Foundation Models. Le aziende, come IBM, hanno proposto “schede” volontarie per il monitoraggio e i meccanismi di trasparenza, ma le autodenunce non verificate non sono i meccanismi ideali per creare fiducia.

Ancora una volta, si prevede che le normative avranno un ruolo nel mitigare i rischi dei sistemi a scatola nera. La regolamentazione potrebbe obbligare le aziende a sottoporsi a verifiche esterne dei modelli di IA e a pubblicarne i risultati, ma ciò richiederebbe criteri di verifica, standard, revisori credibili e una reale applicabilità normativa. Una legge di New York che impone ai datori di lavoro che utilizzano strumenti automatizzati per le decisioni di assunzione di controllarli per verificare la presenza di pregiudizi razziali e di genere è stata giudicata inutile da un recente studio della Cornell. Il National Institute of Standards and Technology ha un quadro di riferimento per la gestione del rischio dell’IA, ma senza certificazione, standard o metodologia di verifica è ancora inefficace.

La lezione da trarre è che, nonostante i progressi in termini di trasparenza, il problema della scatola nera dell’IA rimarrà. Ogni settore applicativo dovrà sviluppare iniziative volte a creare trasparenza che contribuiscano a facilitare il processo di adozione: ad esempio, per contribuire a creare fiducia tra i radiologi, la “interpretabilità” dell’IA – cioè la capacità di comprendere la causa di una decisione presa da un algoritmo – con le applicazioni radiologiche è un campo di ricerca cruciale e in crescita per sostenere la pratica clinica e l’adozione dell’IA.

 

[4]

Preoccupazioni etiche

La maggior parte degli utenti concorda sul fatto che è fondamentale garantire che gli algoritmi vadano oltre la matematica e i dati e siano abbinati a linee guida che garantiscano principi etici, ad esempio che rispettino i diritti e i valori umani, indipendentemente da ciò che suggerisce la matematica. Ci sono stati diversi tentativi di far convergere gli sviluppatori di IA intorno a criteri etici universalmente accettati: i principi dell’IA di Asilomar, ad esempio, abbracciano “valori umani”, “libertà e privacy”, “bene comune” tra gli altri ideali nello sviluppo e nell’uso dei modelli di IA. Ma ci sono tre ostacoli a questi sforzi.

Innanzitutto, gli ideali etici non sono universali. Le due nazioni predominanti nel campo dell’IA, Stati Uniti e Cina, interpretano “libertà e privacy” in modo diverso: la libertà di parola è d’importanza fondamentale negli Stati Uniti, mentre in Cina una libertà di parola senza controllo è in conflitto con il “bene comune”. Anche all’interno degli Stati Uniti, con le sue aspre guerre culturali e la polarizzazione, i gruppi pro-life e pro-choice differiscono sui “valori umani”. Alcuni vogliono che l’IA sia anti “woke”, mentre altri vogliono la decolonizzazione dell’IA.

In secondo luogo, gli organismi transnazionali apolitici hanno poteri limitati. L’ONU ha principi etici sull’IA coerenti con il suo statuto e l’UNESCO ha riunito le aziende per impegnarsi a costruire un’IA più etica. Dato che la maggior parte dello sviluppo dell’IA avviene nel settore privato, l’influenza dell’ONU è limitata.

In terzo luogo, gli incentivi organizzativi delle aziende di IA esacerbano le tensioni tra etica e altre considerazioni. Ad esempio, con una forza lavoro generalmente orientata a sinistra, è necessaria una diversity politica in chi esercita la supervisione etica. Questo è difficile da realizzare nella pratica: gli sforzi di Google per riunire un consiglio consultivo sull’etica dell’IA sono andati in fumo quando i dipendenti si sono opposti alla nomina del presidente della Heritage Foundation, che è di destra. Il tanto pubblicizzato dramma del consiglio di amministrazione contro Sam Altman in OpenAI, il tentativo fallito di separare DeepMind dalla struttura aziendale standard di Google dopo la sua acquisizione e l’implosione della leadership di Stability AI sono anch’essi promemoria ricorrenti della battaglia sulle priorità nelle aziende pioniere dell’IA: ripetutamente, gli obiettivi commerciali vincono sugli ideali dell’IA per il “bene comune”.

La lezione è che i dilemmi etici dipendono dal contesto e saranno una costante dei sistemi di IA; sono particolarmente critici se danno luogo a decisioni escludenti o pericolose. Sarà essenziale mantenere gli esseri umani, compresi quelli riuniti in comitati di governance o di supervisione e in team di osservatori esterni, nel circuito.

 

[5]

Problemi di pregiudizio

I pregiudizi nell’IA derivano da molte fonti: dati di addestramento scarsi o distorti, limiti delle persone coinvolte nell’addestramento e persino il contesto di utilizzo. Possono erodere la fiducia nei modelli di IA quando compaiono in applicazioni critiche, ad esempio quando si scopre che gli istituti di credito hanno maggiori probabilità di negare i mutui alle persone di colore con una percentuale ancora più alta quando è proprio l’IA a decidere. È possibile adottare diverse misure correttive, come l’applicazione di vincoli di equità ai modelli di IA, l’aggiunta di fonti di dati più diversificate, la formazione degli sviluppatori di IA per riconoscere i pregiudizi, la diversificazione del pool di talenti dell’IA, l’utilizzo di strumenti e metriche per verificare i pregiudizi, ecc.

Nonostante queste misure correttive, l’IA non potrà mai essere affidabile e priva di pregiudizi per diversi motivi. In primo luogo, poiché gli strumenti di IA vengono addestrati in ambienti chiusi e possono incontrare ambienti applicativi non familiari, possono produrre bias sorprendenti a causa della loro limitata esposizione ai dati del mondo reale. Inoltre, i processi per verificare la presenza di pregiudizi sono difficili. Le definizioni di ciò che costituisce pregiudizio e ingiustizia possono variare notevolmente in contesti diversi come l’Occidente, la Cina, l’India – l’idea di “equità”, ad esempio, si presta a 21 definizioni diverse, rendendo difficile raggiungere un consenso su quando un risultato è considerato veramente imparziale. Anche “disimparare” i pregiudizi può essere pericoloso, in quanto potrebbe introdurre nuove associazioni imprevedibili apprese dal modello di IA, peggiorando la situazione generale; la produzione di immagini storicamente errate da parte di Google e Meta offre un esempio lampante di tali rischi. Inoltre, i modelli di IA rischiano anche di esaurire i nuovi dati di alta qualità su cui addestrarsi per riuscire a neutralizzare i pregiudizi derivanti da insiemi di dati limitati o di bassa qualità.

La lezione da trarre è che dobbiamo accettare il fatto che i modelli di IA saranno addestrati con dei limiti – dei dati o dei formatori stessi che operano con limiti umani – e i pregiudizi saranno inevitabili. Sarà essenziale applicare il giudizio umano e la vigilanza, insieme a una rapida azione correttiva, prima che questi causino danni.

 

[6]

Problemi di instabilità

In alcuni contesti, le decisioni dell’IA possono cambiare drasticamente quando l’input viene modificato leggermente e non in modo significativo, causando errori e differenze da piccole a catastrofiche nei risultati. Ad esempio, i veicoli autonomi sono affidabili per molte funzioni, ma a volte falliscono: ad esempio, quando una piccola ostruzione su un segnale di stop fa sì che un’auto assistita dall’intelligenza artificiale non lo rispetti. Mentre i modelli di IA vengono costantemente migliorati con l’aggiunta di dati di addestramento, il miglioramento dei protocolli di test e l’apprendimento automatico continuo, la ricerca accademica sulla “stabilità” dell’IA ha scoperto che, al di là dei problemi di base, è matematicamente impossibile sviluppare algoritmi di IA universalmente stabili. Ciò significa che non potremo mai essere sicuri che l’IA prenda decisioni corrette quando c’è anche solo un po’ di disturbo nei dati di input.

La lezione è che i sistemi di IA possono essere sensibili a piccoli cambiamenti, inevitabili nel mondo reale al di là del set di dati di addestramento. In queste situazioni sarà fondamentale la presenza di persone attente che possano effettuare una correzione manuale o un override.

 

[7]

Allucinazioni nei LLM

Le allucinazioni dell’IA hanno portato i modelli a fare cose bizzarre, dal dichiarare di essere innamorati dei loro utenti all’affermare di aver spiato i dipendenti di un’azienda. Molti produttori di IA hanno sviluppato una serie di tecniche di mitigazione; ad esempio, IBM raccomanda di utilizzare dati di addestramento di alta qualità, di stabilire confini chiari sull’uso del modello di IA, di utilizzare modelli di dati per facilitare la coerenza dei risultati e di effettuare test e affinamenti continui. Indipendentemente dalle azioni intraprese, la ricerca suggerisce che esiste un limite inferiore statistico sui tassi di allucinazione, il che significa che ci sarà sempre una possibilità che queste compaiano. Ancora una volta, come è logico per i modelli probabilistici, indipendentemente dalla qualità dell’architettura del modello o del set di dati, gli episodi di allucinazioni possono diminuire, ma non possono mai essere eliminati.

La lezione è che non bisogna mai fidarsi di un modello generativo di intelligenza artificiale, soprattutto in scenari ad alto rischio come la documentazione legale, senza che professionisti qualificati lo verifichino accuratamente. Questo può aiutare a evitare situazioni come quella in cui ChatGPT ha inventato una mezza dozzina di falsi casi giudiziari con citazioni e riferimenti fasulli durante la preparazione di un documento legale.

 

[8]

Incognite sconosciute

L’intelligenza artificiale può agire in modi che noi umani non possiamo prevedere. I modelli possono avere punti ciechi, i loro dati di addestramento possono non essere in linea con l’ambiente in cui vengono applicati e possono commettere errori che gli sviluppatori non riescono a comprendere. I modelli di riconoscimento delle immagini identificano con sicurezza gli oggetti ma possono, inspiegabilmente, sbagliare completamente. L’addestramento continuo dei modelli su nuovi set di dati aiuta a ridurre le possibilità, ma anche se il modello migliora, ci saranno sempre più informazioni al di là della sua capacità di visione e i rischi creati da questi elementi mancanti possono aggravarsi ed evolvere in modi inaspettati.

La lezione è che un’applicazione acritica dell’IA, che di per sé ha dei punti ciechi, è una ricetta per il disastro; è fondamentale garantire la mano umana nel guidare le decisioni con la consapevolezza del contesto applicativo.

 

[9]

Perdita di posti di lavoro e disuguaglianze sociali

Le economie con produttività in crescita dovrebbero registrare rapidi aumenti salariali. Le aspettative sull’impatto dell’IA sulla produttività variano: McKinsey ha previsto un ottimistico aumento del 3,3% annuo entro il 2040 grazie all’uso dell’IA generativa. L’ex CEO di Google, Eric Schmidt, prevede che l’IA raddoppierà la produttività di tutti. Il presidente della Federal Reserve statunitense, Jerome Powell, è più cauto nel prevedere l’impatto dell’IA sulla produttività e si aspetta pochi cambiamenti nel breve periodo.

Un modo naturale per avere una visione più solida dell’impatto è rivolgersi alla storia. Purtroppo, in questo caso, la storia fornisce poche indicazioni. La crescita della produttività dei lavoratori statunitensi, infatti, è diminuita quando sono state introdotte le prime tecnologie digitali. Anche quando è raddoppiata alla fine degli anni ‘90, al momento del lancio del World Wide Web, l’impennata è stata di breve durata, con successive impennate nel 2009 durante la Grande Recessione, dopo l’inizio della pandemia nel 2020, e poi di nuovo al 4,7%, nel terzo trimestre del 2023, troppo presto per essere attribuita all’IA. Ciò non offre prove sufficienti per essere ottimisti sull’impatto dell’IA sulla produttività e sui salari nelle varie economie.

Le singole imprese, tuttavia, sono più ottimiste, il che potrebbe tradursi in una perdita di posti di lavoro quando l’IA assumerà compiti svolti dall’uomo. Ma questo significherebbe che l’IA aumenterebbe i salari di coloro che restano occupati, mentre porterebbe a perdite salariali per coloro il cui lavoro viene spostato, aggravando le disuguaglianze sociali. Per contrastare questi timori, alcuni esperti prevedono che l’IA generativa possa ridurre le disuguaglianze dando ai lavoratori meno qualificati l’accesso a strumenti per una maggiore mobilità verso l’alto. La storia è più utile in questo caso, poiché suggerisce che le disuguaglianze aumenteranno: le disuguaglianze salariali tendevano ad aumentare maggiormente nei Paesi in cui le aziende già facevano affidamento sull’automazione; i lavoratori neri e ispanici erano sovrarappresentati nelle 30 occupazioni con la maggiore esposizione all’automazione e sottorappresentati nelle 30 occupazioni con l’esposizione più bassa; si prevedeva che le donne sarebbero state colpite in modo sproporzionato e negativo, con il 79% delle donne lavoratrici in occupazioni vulnerabili alla dislocazione del lavoro da parte dell’IA generativa, rispetto al 58% degli uomini lavoratori.

La lezione generale è che sull’adozione dell’IA incombe l’ombra della perdita di posti di lavoro e dell’aumento delle disuguaglianze sociali. Anche accettare l’adozione dell’IA può essere problematico: il più grande licenziamento della storia di UPS è stato dovuto alla sostituzione degli esseri umani da parte dell’IA, secondo quanto dichiarato dall’amministratore delegato in una conferenza stampa, ma un portavoce ha successivamente negato qualsiasi collegamento tra i licenziamenti e l’IA. Chiaramente, l’amministratore delegato voleva segnalare agli investitori che l’azienda stava adottando l’IA per beneficiare dell’efficienza di costo derivante dalla riduzione dell’organico, ma ha avuto anche una ricaduta negativa a livello di relazioni pubbliche; ciò suggerisce che l’impatto sui posti di lavoro crea attriti nell’abbracciare completamente l’IA. Con le molteplici preoccupazioni degli stakeholder da bilanciare, occorre sperare che le aziende adottino l’IA con giudizio.

 

[10]

Impatto ambientale

Si prevede che la quota dell’IA nell’utilizzo di energia dei centri dati a livello mondiale crescerà fino al 10% entro il 2025.  Entro il 2027, con l’acqua necessaria per il raffreddamento, l’utilizzo dei data center da parte dell’IA potrebbe assorbire l’equivalente della metà dell’acqua consumata ogni anno nel Regno Unito. Per l’IA sono necessari chip sempre più potenti, che contribuiscono a uno dei flussi di rifiuti in più rapida crescita. Nessuna di queste tendenze mostra segni di rallentamento. L’uso crescente dell’IA generativa, soprattutto per la produzione di immagini, peggiorerà ulteriormente la situazione: uno studio ha rilevato che 1.000 immagini realizzate con Stable Diffusion XL emettono una quantità di anidride carbonica pari a quella di un’auto a benzina che percorre 6 km.

Una considerazione importante è che le applicazioni assistite dall’intelligenza artificiale possono prendere il posto di altre attività costose per l’ambiente e contribuire a ridurre le emissioni e l’uso delle risorse. Tuttavia, è necessario essere consapevoli del suo impatto. Azioni specifiche, come l’Artificial Intelligence Environmental Impacts Act del 2024, presentato al Senato degli Stati Uniti, sono lodevoli ma saranno difficili da realizzare in assenza di standard per la misurazione o la verifica delle emissioni legate all’IA. Un altro approccio per la mitigazione dei rischi è quello di far sì che i nuovi data center siano alimentati da energia rinnovabile, ma la domanda cresce troppo velocemente per essere interamente alimentata da fonti rinnovabili. Anche con le iniziative di riciclaggio in atto, solo il 13,8% dei rifiuti elettronici documentati viene formalmente raccolto e riciclato, con una stima del 16% al di fuori del sistema formale nei Paesi ad alto e medio reddito. Nel prossimo futuro, l’impatto ambientale negativo dell’IA è inevitabile.

La lezione da trarre è che così come diverse industrie, ad esempio quella dei combustibili fossili o dei produttori di veicoli a benzina, hanno perso la fiducia di molti consumatori a causa del loro impatto ambientale, anche l’IA potrebbe correre rischi simili. È necessario un giudizio umano per valutare se i benefici derivanti, ad esempio, dall’incorporazione di miglioramenti dell’IA in prodotti con alternative sufficientemente valide valgano i costi ambientali.

 

[11]

Concentrazione dell’industria

Nonostante l’alta priorità attribuita all’IA dalla leadership politica, il suo sviluppo è guidato dall’industria. Le ragioni sono strutturali: lo sviluppo dell’IA richiede diversi fattori critici, come il talento, i dati, la potenza di calcolo e il capitale, e il settore privato è meglio posizionato per avervi accesso. Inoltre, queste risorse sono concentrate in poche aziende.

La catena del valore dell’IA presenta due punti di concentrazione principali. Una manciata di innovatori dinamici che sviluppano modelli di IA attinge a un’altra manciata di grandi aziende per gli input critici. Nvidia, Salesforce, Amazon, Google e Microsoft sono i maggiori investitori nei principali innovatori di IA, mentre Meta è la principale fonte di modelli open-source.

Oltre al capitale, gli sviluppatori di modelli di IA si rivolgono a Nvidia per le unità di elaborazione grafica, a fornitori di cloud come Amazon e Microsoft per l’esecuzione dei modelli, mentre Google, Meta e Microsoft stanno integrando l’IA per difendere i loro prodotti principali. Anche con un livello più competitivo di applicazioni e servizi di IA personalizzati per usi specifici, la base del settore rimarrà chiaramente concentrata. La sfiducia che gli utenti provano nei confronti del controllo delle Big Tech sarà rivisitata in modi ancora più incisivi man mano che la tecnologia diventerà sempre più IA.

L’azione consueta per mitigare i rischi di concentrazione del settore, ossia il controllo normativo, è arrivata in ritardo. La Federal Trade Commission ha avviato solo di recente un’indagine su questo crescente rischio di concentrazione. Nel frattempo, le tendenze continuano: da quando è stata avviata l’indagine, Microsoft, già il maggiore investitore in OpenAI, ha assorbito il team di punta di Inflection e Amazon ha investito 2,75 miliardi di dollari in Anthropic. E questi – OpenAI, Inflection e Anthropic – sono attualmente i tre più importanti innovatori di IA negli Stati Uniti.

La lezione è che la concentrazione di potere in poche aziende erode la fiducia perché i consumatori si sentono bloccati, si preoccupano di pagare troppo e hanno problemi di privacy per i loro dati messi all’angolo da aziende potenti che possono sfruttarli in altri settori.

 

[12]

L’ingerenza dello Stato

Le tendenze indicano un maggiore uso dell’IA e degli strumenti correlati per esercitare il controllo sui cittadini da parte dei Governi di tutto il mondo. A ciò si aggiunge il fatto che la percentuale di popolazione che vive in ambienti politici definiti “liberi” da Freedom House è diminuita nell’ultimo decennio e mezzo. Secondo Freedom House, le libertà globali di Internet sono diminuite per 13 anni di fila e l’IA ha favorito questo declino in molti modi: diffondendo la propaganda di Stato, consentendo una censura più efficiente, creando profili comportamentali dei cittadini e sviluppando analisi predittive e sorveglianza. A riprova di quest’ultimo sviluppo, si consideri che almeno 75 Paesi su 176 a livello globale utilizzano attivamente le tecnologie dell’IA per scopi di sorveglianza, tra cui il 51% delle democrazie avanzate. Con i dati dei cittadini sempre più in possesso dei Governi, soprattutto con la crescita dei sistemi di identità digitale, le possibilità di abuso di potere sono ancora maggiori. Esperti preoccupati hanno proposto diversi possibili controlli e contrappesi, ma non sono stati adottati su larga scala.

La lezione più importante è che la preoccupazione per la prevaricazione dello Stato può portare a rifiutare l’uso dell’IA anche quando può essere vantaggiosa per la società, se usata con delle precauzioni. La verifica della disponibilità ad accettare i compromessi sarà fondamentale per garantire che i cittadini siano a proprio agio con l’uso dell’IA da parte degli Stati. Si pensi all’uso della tecnologia di riconoscimento facciale da parte della polizia: città come San Francisco l’hanno vietata.

 

SEBBENE L’ATTENZIONE si sia concentrata sugli impressionanti guadagni in termini di prestazioni dell’IA, le persone sono anche sempre più pessimiste riguardo al suo impatto. In tutto il mondo, la fiducia nelle aziende di IA è diminuita e negli Stati Uniti il calo è stato ancora più drammatico. Certo, molte aziende tecnologiche e commentatori suggeriscono che è possibile costruire una fiducia nell’IA in modo facile e veloce, ma non prendiamoci in giro: il gap di fiducia nell’IA persiste, ed è destinato a rimanere.

Anche se il divario si riducesse, è importante ricordare che la fiducia non deriva necessariamente da un calcolo matematico o logico: anche un solo bullone di una porta che salta fuori da un aereo scuote la nostra fiducia nell’intero sistema dell’aviazione, statisticamente uno dei modi di trasporto più sicuri. Il deficit di fiducia si ripercuoterà in particolare sull’adozione di applicazioni altamente sensibili, come ad esempio la sanità, la finanza, i trasporti o la sicurezza nazionale. I leader dovrebbero riconoscere quali dei 12 rischi sono più critici per un’applicazione e monitorare i progressi nella riduzione del divario.

Anche se la tecnologia progredisce e matura, l’accoppiamento dell’IA con gli esseri umani rimarrà il segnale più importante per i potenziali utenti interessati che le aziende che utilizzano questa tecnologia sono degne di fiducia. Ma gli esseri umani che accompagnano l’IA devono essere preparati, sia che si tratti di conversazioni basate su prove, sia che si tratti di impegnarsi in una cittadinanza attiva per esaminare i risultati dell’IA, sia che si tratti di garantire la diversità tra i team che la producono.

Attualmente l’attenzione si concentra sull’addestramento dei modelli di IA affinché diventino più simili a noi, ma non dimentichiamo che dobbiamo addestrare anche gli esseri umani. Devono imparare a riconoscere le cause del deficit di fiducia nell’IA, accettare che rimanga e capire come intervenire per colmare il vuoto. In altre parole, il settore ha speso decine di miliardi per creare prodotti di IA, come Microsoft Copilot. È giunto il momento di investire anche nell’uomo che lo affianca: il pilota.

 

Bhaskar Chakravorti è preside di Global Business alla Fletcher School della Tufts University e direttore esecutivo del Fletcher Institute for Business in the Global Context. È autore di The Slow Pace of Fast Change.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400