INTELLIGENZA ARTIFICIALE

Eliminare i pregiudizi algoritmici è solo l’inizio per un’IA equa

Simon Friis, James Riley

Ottobre 2023

Eliminare i pregiudizi algoritmici è solo l’inizio per un’IA equa

HBR Staff/Imansyah Muhamad Putera/Unsplash

DALL’AUTOMAZIONE di compiti banali alle scoperte pionieristiche nel campo dell’assistenza sanitaria, l’intelligenza artificiale sta rivoluzionando il nostro modo di vivere e lavorare, promettendo un immenso potenziale di aumento della produttività e maggiore innovazione. Tuttavia, è diventato sempre più evidente che le promesse dell’IA non sono distribuite in modo equo e rischiano di esacerbare le disparità sociali ed economiche, in particolare tra le caratteristiche demografiche come l’etnia.

I leader delle aziende e dei governi sono chiamati a garantire che i benefici dei progressi guidati dall’IA siano accessibili a tutti. Eppure sembra che ogni giorno che passa ci sia un nuovo modo in cui l’IA crea disuguaglianza, il che si traduce in un mosaico di soluzioni reattive – o spesso in nessuna risposta. Se vogliamo affrontare efficacemente la disuguaglianza determinata dall’IA, dobbiamo adottare un approccio proattivo e olistico.

Se i politici e i leader aziendali sperano di rendere l’IA più equa, dovrebbero iniziare a riconoscere tre forze attraverso le quali questa può aumentare la disuguaglianza. Raccomandiamo un quadro di riferimento semplice, a livello macro, che comprenda queste tre forze ma che si concentri sugli intricati meccanismi sociali attraverso i quali l’IA crea e perpetua la disuguaglianza. Questo quadro vanta un duplice vantaggio; in primo luogo, la sua versatilità garantisce l’applicabilità in diversi contesti, dalla produzione, alla sanità, all’arte. In secondo luogo, illumina i modi spesso trascurati e interdipendenti in cui l’IA altera la domanda di beni e servizi, un percorso significativo attraverso il quale questa propaga la disuguaglianza.

Il nostro quadro si compone di tre forze interdipendenti attraverso le quali l’IA crea disuguaglianza: forze tecnologiche, forze dal lato dell’offerta e forze dal lato della domanda.

 

Forze tecnologiche: pregiudizio algoritmico

Il pregiudizio algoritmico si verifica quando gli algoritmi prendono decisioni che svantaggiano sistematicamente alcuni gruppi di persone. Può avere conseguenze disastrose se applicato a settori chiave come l’assistenza sanitaria, la giustizia penale e l’affidabilità creditizia. Gli scienziati che hanno analizzato un algoritmo sanitario ampiamente utilizzato hanno scoperto che sottovalutava gravemente le esigenze dei pazienti di colore, portando a un’assistenza significativamente inferiore. Questo non è solo ingiusto, ma profondamente dannoso. I pregiudizi algoritmici spesso si verificano perché alcune popolazioni sono sottorappresentate nei dati utilizzati per addestrare gli algoritmi di intelligenza artificiale o perché i pregiudizi sociali preesistenti sono incorporati nei dati stessi.

Sebbene la minimizzazione dei pregiudizi algoritmici sia un tassello importante del puzzle, purtroppo non è sufficiente a garantire risultati equi. Complessi processi sociali e forze di mercato si nascondono sotto la superficie, dando origine a un panorama di vincitori e vinti che non può essere spiegato solo dai pregiudizi algoritmici. Per comprendere appieno questo panorama diseguale, dobbiamo capire come l’IA modella l’offerta e la domanda di beni e servizi in modi che perpetuano e addirittura creano disuguaglianza.

 

Forze dal lato dell’offerta: automazione e incremento

L’IA spesso riduce i costi di fornitura di alcuni beni e servizi automatizzando e potenziando il lavoro umano. Come rivelano le ricerche di economisti come Erik Brynjolfsson e Daniel Rock, alcuni lavori hanno maggiori probabilità di essere automatizzati o potenziati dall’IA rispetto ad altri. Un’analisi eloquente della Brookings Institution ha rilevato che “i lavoratori neri e ispanici... nei lavori ad alto rischio hanno una sovrarappresentazione nella possibilità di essere eliminati o modificati in modo significativo dall’automazione”. Questo non perché gli algoritmi coinvolti siano distorti, ma perché alcuni lavori consistono in mansioni più facili (o finanziariamente più redditizie) da automatizzare, per cui l’investimento nell’IA rappresenta un vantaggio strategico. Ma poiché le persone di colore sono spesso concentrate proprio in questi lavori, l’automazione e il potenziamento del lavoro attraverso l’IA e le trasformazioni digitali più in generale hanno il potenziale di creare disuguaglianze lungo le linee demografiche.

 

Forze della domanda: valutazioni (informali) del pubblico

L’integrazione dell’IA in professioni, prodotti o servizi può influenzare il modo in cui le persone li valutano. In breve, l’IA altera anche le dinamiche della domanda.

Supponiamo che scopriate che il vostro medico utilizza strumenti di IA per la diagnosi o il trattamento. Questo influenzerebbe la vostra decisione di andare da lui? Se sì, non siete i soli. Un recente sondaggio ha rilevato che il 60% degli adulti statunitensi non si sentirebbe a proprio agio se il proprio fornitore di assistenza sanitaria si affidasse all’IA per il trattamento e la diagnosi delle malattie. In termini economici, potrebbero avere una minore domanda di servizi che incorporano l’IA.

 

Perché l’integrazione dell’IA può ridurre la domanda

La nostra recente ricerca fa luce sul motivo per cui l’integrazione dell’IA può ridurre la domanda di una serie di beni e servizi. Abbiamo scoperto che spesso le persone percepiscono il valore e le competenze dei professionisti come inferiori quando questi pubblicizzano i servizi integrati nell’IA. Questa penalizzazione dell’intelligenza artificiale si è verificata per servizi diversi come la codifica, il design grafico e il copyediting.

Tuttavia, abbiamo anche riscontrato che le persone sono divise nella loro percezione del lavoro potenziato dall’intelligenza artificiale. Nel sondaggio che abbiamo condotto, il 41% degli intervistati è stato definito “allarmista dell’IA”, ossia una persona che ha espresso riserve e preoccupazioni sul ruolo dell’IA nel mondo del lavoro. Il 31% era invece costituito da “sostenitori dell’IA”, che sostengono con convinzione l’integrazione dell’IA nella forza lavoro. Il restante 28% è costituito da “agnostici dell’IA”, cioè da coloro che sono indecisi, riconoscendo sia i potenziali benefici che le insidie. Questa diversità di opinioni sottolinea l’assenza di un modello mentale chiaro e unificato sul valore del lavoro integrato dall’IA. Sebbene questi risultati si basino su un sondaggio online relativamente piccolo e non riflettano il modo in cui l’intera società vede l’IA, essi evidenziano differenze distinte tra le valutazioni (informali) sociali degli individui sugli usi e gli utenti dell’IA e il modo in cui questo informa la loro domanda di beni e servizi, che è al centro di ciò che intendiamo esplorare in ulteriori studi.

 

Come i fattori legati alla domanda perpetuano la disuguaglianza

Nonostante la sua importanza, questa prospettiva – il modo in cui il pubblico percepisce e apprezza il lavoro potenziato dall’IA – viene spesso trascurata nel più ampio dialogo su IA e disuguaglianza. L’analisi della domanda è una parte importante della comprensione dei vincitori e dei perdenti dell’IA e di come questa possa perpetuare la disuguaglianza.

Ciò è particolarmente vero nei casi in cui il valore dell’IA percepito dalle persone si interseca con pregiudizi nei confronti di gruppi emarginati. Ad esempio, la competenza dei professionisti appartenenti a gruppi dominanti è tipicamente data per scontata, mentre professionisti altrettanto qualificati appartenenti a gruppi tradizionalmente emarginati spesso affrontano lo scetticismo riguardo alla loro competenza. Nell’esempio precedente, le persone sono scettiche sul fatto che i medici si affidino all’intelligenza artificiale, ma questa diffidenza potrebbe non manifestarsi allo stesso modo tra professionisti con background diversi. I medici provenienti da contesti emarginati, che già affrontano lo scetticismo dei pazienti, probabilmente sopporteranno il peso maggiore di questa perdita di fiducia causata dall’IA.

Mentre sono già in corso sforzi per affrontare i pregiudizi degli algoritmi e gli effetti dell’automazione e del potenziamento, è meno chiaro come affrontare la valutazione distorta dei gruppi storicamente svantaggiati da parte del pubblico. Ma c’è speranza.

 

Allineare le forze sociali e di mercato per un futuro equo dell’IA

Per promuovere davvero un futuro equo dell’IA, dobbiamo riconoscere, comprendere e affrontare tutte e tre le forze. Queste, pur essendo distinte, sono strettamente interconnesse e le fluttuazioni di una di esse si riverberano sulle altre.

Per capire come questo si manifesta, si consideri uno scenario in cui un medico si astiene dall’utilizzare gli strumenti di IA per evitare di allontanare i pazienti, anche se la tecnologia migliora l’erogazione dell’assistenza sanitaria. Questa riluttanza non solo influisce sul medico e sul suo studio, ma priva i pazienti dei potenziali vantaggi dell’IA, come la diagnosi precoce durante gli screening del cancro. Inoltre, se il medico è al servizio di comunità diverse, ciò potrebbe esacerbare la sottorappresentazione di tali comunità e dei loro fattori di salute nei set di dati di addestramento dell’IA. Di conseguenza, gli strumenti di IA diventano meno adatti alle esigenze specifiche di queste comunità, perpetuando un ciclo di disparità. In questo modo, può prendere forma un ciclo di feedback dannoso.

La metafora di un treppiede è calzante: una carenza in una sola gamba ha un impatto diretto sulla stabilità dell’intera struttura, che si ripercuote sulla capacità di regolare angoli e prospettive e, inevitabilmente, sul suo valore per gli utenti.

Per evitare il circolo di feedback negativo descritto sopra, faremmo bene a guardare a strutture che ci permettano di sviluppare modelli mentali di lavoro potenziato dall’IA che promuovano guadagni equi. Ad esempio, le piattaforme che forniscono prodotti e servizi generati dall’IA devono educare gli acquirenti all’integrazione dell’IA e alle competenze uniche necessarie per lavorare efficacemente con gli strumenti dell’IA stessa. Una componente essenziale è sottolineare che l’IA aumenta, piuttosto che sostituire, le competenze umane.

Sebbene la correzione delle distorsioni degli algoritmi e l’attenuazione degli effetti dell’automazione siano indispensabili, non sono sufficienti. Per inaugurare un’era in cui l’adozione dell’IA agisca come forza di miglioramento ed equalizzazione, la collaborazione tra le parti interessate sarà fondamentale. Industrie, governi e studiosi devono unirsi attraverso partnership di pensiero e leadership per forgiare nuove strategie che diano priorità ai guadagni dell’IA incentrati sull’uomo e sull’equità. L’adozione di tali iniziative garantirà una transizione più agevole, inclusiva e stabile verso il nostro futuro arricchito dall’IA.

 

 

Simon Friis è ricercatore presso il Blackbox Lab della Harvard Business School, dove si occupa di comprendere le implicazioni sociali ed economiche dell’intelligenza artificiale. Ha conseguito il dottorato di ricerca in Sociologia economica presso la MIT Sloan School of Management e in precedenza ha lavorato presso Meta come ricercatore. James Riley è professore assistente di economia aziendale presso l’Unità di comportamento organizzativo della Harvard Business School e affiliato al Berkman Klein Center for Internet & Society dell’Università di Harvard. È anche il ricercatore principale del Blackbox Lab presso il Digital, Data, Design Institute della Harvard Business School, che studia le promesse della trasformazione digitale e l’implementazione di strategie e tecnologie di piattaforma per i professionisti, le aziende e le comunità di colore. Ha conseguito il dottorato di ricerca in Sociologia economica presso la MIT Sloan School of Management.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia