INTELLIGENZA ARTIFICIALE
Aurelie Jean, Guillaume Sibout, Mark Esposito, Terence Tse
Marzo 2024
NEL GIUGNO 2023, il Parlamento europeo ha votato uno strumento giuridico volto a regolamentare la progettazione e l'utilizzo dell'intelligenza artificiale (IA) in base al suo livello di rischio per i diritti fondamentali dei cittadini. Gli stakeholder pubblici e privati, siano essi consumatori o progettisti di IA, devono a questo punto sviluppare una governance algoritmica per garantire la conformità delle loro attività e, soprattutto, per evitare di causare danni e minimizzare il rischio reputazionale associato a scandali algoritmici come quelli visti negli ultimi anni. Operando in questo modo, OpenAI avrebbe potuto diffondere gradualmente il suo ChatGPT anticipando i rischi associati all’uso di massa, agli errori e alle approssimazioni nelle risposte e all'incomprensione dello strumento da parte degli utenti.
Gli stakeholder devono, dunque, costruire una governance algoritmica attraverso regole e pratiche etiche per la progettazione e l'utilizzo di questi algoritmi, utilizzando una metodologia tanto rigorosa quanto pragmatica che possa essere applicata in modo efficace e misurabile.
Una definizione della governance algoritmica
La governance degli algoritmi riguarda le regole e le pratiche per la costruzione e l'uso degli algoritmi incorporati nelle tecnologie di IA progettate per un caso d'uso specifico. Non si tratta di una semplice carta o di un insieme di principi etici, ma si basa su misure da adottare per garantire il corretto funzionamento dell'algoritmo e per prevenire eventuali errori come la discriminazione tecnologica o il mancato rispetto delle leggi. È come una legge, che deve essere accompagnata da un sistema giudiziario per essere applicata e valutata in ogni momento.
La governance algoritmica deve essere multidisciplinare e trasversale a diverse scienze come la sociologia, la politica e l'antropologia. Deve collegare i vari stakeholder di un progetto, compreso l'utente finale, e incorporare il loro livello di comprensione della tecnologia e della scienza algoritmica in generale, nonché i loro diritti, obblighi e doveri rispetto all'algoritmo in questione. Deve inoltre adottare due approcci simultanei: quello storico dall'alto verso il basso, che consente a un comitato direttivo o ai responsabili del progetto di infondere e imporre le migliori pratiche e la loro applicazione; e quello dal basso verso l'alto, che consente a ogni membro del personale di un'azienda o all'utente finale di contribuire direttamente (attraverso un coinvolgimento tangibile e pratico nel progetto) o indirettamente (ad esempio, raccogliendo il feedback dell'utente) al buon funzionamento del progetto: dal lancio e dallo sviluppo fino alla sua implementazione.
Infine, la governance deve essere realizzata e valutata in modo così trasparente da poter essere compresa da tutti gli stakeholder di un progetto che prevede la progettazione, la fornitura o l'utilizzo di un algoritmo. Va sottolineato che la trasparenza incondizionata del codice sorgente in cui è programmato l'algoritmo non dovrebbe consentire di esimersi dalla governance algoritmica. In pratica, la trasparenza presa in considerazione dovrebbe riguardare il codice sorgente, tutti gli insiemi di dati utilizzati e i criteri impiegati per l'addestramento dell'algoritmo. In alcuni casi, ciò potrebbe ostacolare l'innovazione rendendo disponibile al pubblico solo la proprietà intellettuale delle aziende. La trasparenza nella governance deve essere imposta incondizionatamente.
Modelli di governance algoritmica
Pochi hanno definito o comunicato il loro modello di governance algoritmica, a parte la carta etica per un'IA affidabile. Alcuni tentativi in passato non hanno avuto successo, come il comitato etico per l'IA di Google, che è stato interrotto nel 2019, o la prima carta dell'IA di Microsoft nel 2017, che non è stata adottata in modo estensivo. A ciò si aggiunge il numero limitato di studi accademici che definiscono modelli di governance algoritmica pronti all'uso, a differenza di quelli sui dati o più in generale sull'importanza dell'etica nell'IA.
Eppure, agire a monte del dibattito legislativo è essenziale. I vantaggi di essere in anticipo sulla legge sono molteplici: anticipare le implicazioni etiche di una nuova tecnologia, prevenire costose controversie legali, evitare danni alla reputazione, aumentare la fiducia degli stakeholder, differenziarsi dai concorrenti aumentando l'attrattività, e svolgere un ruolo attivo con gli organi legislativi europei.
Quale modello di governance algoritmica adottare?
Non esiste un solo modello, ma una moltitudine che può essere adattata al settore, a un'azienda e alle sue ambizioni, nonché a un tipo di progetto algoritmico. Detto questo, per costruire le fondamenta della propria governance si dovrebbe utilizzare una struttura generale che includa diverse fasi di un progetto per la creazione o l'acquisto di un algoritmo: dalla fase di ideazione, che comprende la formulazione del problema aziendale da risolvere, alla fase di utilizzo, che include il feedback dell'utente finale. Dovrebbe includere le fasi delle specifiche commerciali e tecniche, comprese le questioni ambientali associate all'estrazione delle materie prime per la produzione dell'hardware, nonché la potenza di calcolo - e quindi il consumo di energia - necessaria per l'addestramento dell'algoritmo e la sua esecuzione. Dovrebbe inoltre includere le fasi di raccolta dei dati, compresi i test di campionamento e rappresentatività da effettuare, la programmazione del computer e la formazione dell'algoritmo, la convalida e l'implementazione dell'algoritmo e i test effettuati su di esso una volta utilizzato, a volte da milioni di persone. Vanno considerate anche la valutazione e il miglioramento del livello di comprensione tecnica da parte delle parti interessate, compresi il personale aziendale e gli utenti finali.
Nel corso del processo di governance deve essere calcolato un punteggio di rischio per valutare i rischi scientifici, tecnici, etici e di reputazione associati a un dato algoritmo. In fase di elaborazione della struttura su cui si basa la governance dell'algoritmo, si dovrebbero redigere carte e principi di buona pratica, per aggiungere eventuali questioni e punti del progetto che devono essere affrontati. La presenza di un comitato etico interno o esterno può contribuire a garantire il corretto svolgimento del processo di governance.
I calcoli di spiegabilità, che sono metodi statistici utilizzati per controllare o estrarre la logica di funzionamento dell'algoritmo, devono essere sistematicamente applicati prima (cioè sui set di dati), durante e dopo l'addestramento automatico. Questi calcoli, che permettono di ridurre l'opacità dell'algoritmo e di controllare le sue risposte e la loro variabilità, riducono significativamente il rischio di errori, bug o pregiudizi algoritmici alla base della discriminazione tecnologica. È così che si sarebbe potuto evitare che i primi algoritmi di riconoscimento facciale contenessero pregiudizi rispetto al colore del viso, o che l'algoritmo di Goldman-Sachs nell'applicazione della Apple Card concedesse alle donne linee di credito molto più basse di quelle concesse agli uomini.
Da dove cominciare?
L'azienda deve identificare un caso d'uso che riguardi la tecnologia algoritmica per soddisfare una delle sue precise esigenze aziendali. Insieme, i team tecnici e aziendali devono identificare la forma di ciascuna fase della governance algoritmica e definire le domande, le azioni e i test da effettuare per ciascuna di esse. Inoltre, i team devono decidere come calcolare il punteggio di rischio dell'algoritmo e le metriche di successo della governance. Questa governance iniziale viene poi applicata al caso d'uso e poi a diversi altri per verificare che possa essere scalata.
Infine, utilizzando un metodo iterativo e agile, i team devono adattare la governance dell'azienda mentre la distribuiscono all'interno dell'organizzazione. In questo modo, questa progetterà algoritmi inclusivi e rispettosi dei cittadini e dell'ambiente. Comunicando e condividendo pubblicamente la sua governance, contribuirà anche ai dibattiti legislativi per la stesura delle prossime leggi pertinenti e sostenibili che regoleranno gli algoritmi.
Aurelie Jean è fondatrice di Silico Veritas, scienziata ed esperta di IA in Francia e Stati Uniti. Guillaume Sibout è consulente e ricercatore scientifico nell’ambito dell’IA presso Silico Veritas. Mark Esposito, è professore Ordinario di Economia alla Hult Int’l Business School & Harvard University’s Division of Continuing Education; Co-fondatore di Nexus FrontierTech. Terence Tse, è professore Ordinario di Finanza alla Hult Int’l Business School, Co-fondatore di Nexus FrontierTech.