TECNOLOGIA

Quando il machine learning sfugge di mano

Una guida alla gestione dei rischi.

Boris Babic, I. Glenn Cohen, Theodorus Evgeniou, Sara Gerke

Gennaio 2021

Quando il machine learning sfugge di mano

Cosa succede quando il machine learning - l'apprendimento delle macchine, ossia programmi informatici adattivi che recepiscono nuove informazioni e poi modificano il proprio modello decisionale – causa perdite su investimenti, assunzioni e affidamenti finanziari viziati da pregiudizi, o incidenti automobilistici? Le imprese dovrebbero consentire ai loro prodotti e ai loro servizi "intelligenti" di evolversi autonomamente, o dovrebbero "blindarne" gli algoritmi e aggiornarli periodicamente? Se optano per la seconda alternativa, quando e con quale frequenza dovrebbero effettuare questi aggiornamenti? E come dovrebbero valutare e limitare i rischi che si accompagnano a queste e ad altre scelte?

In tutto il mondo del business, dove l'intelligenza artificiale basata sull'apprendimento delle macchine permea un numero sempre crescente di offerte e processi, dirigenti e board devono prepararsi a rispondere a queste domande. Nell'articolo, che attinge al nostro lavoro su normativa sanitaria, etica, regolamentazione e machine learning, presentiamo concetti critici per capire e gestire le possibili negatività di questa nuova tecnologia avanzata.

 

Cosa rende rischioso l'apprendimento delle macchine

La grossa differenza tra il machine learning e le tecnologie che l'hanno preceduto è la capacità di prendere decisioni complesse in modo indipendente – come la scelta dei prodotti finanziari da acquistare e vendere, la reazione dei veicoli alla presenza di ostacoli e la diagnosi di una malattia – e di adattarsi in continuazione in risposta ai nuovi dati. Ma non sempre questi algoritmi funzionano perfettamente. Non fanno sempre scelte etiche o accurate – per tre ragioni principali.

Una è che gli algoritmi si basano tipicamente sulla probabilità che qualcuno, mettiamo, non rimborsi un prestito o contragga una malattia. Poiché fanno tantissime previsioni, è probabile che alcune si rivelino sbagliate, anche perché c'è sempre la possibilità che si inceppino. La probabilità di errori dipende da tutta una serie di fattori, tra cui la quantità e la qualità dei dati utilizzati per addestrare l'algoritmo, il metodo specifico utilizzato per l'apprendimento delle macchine (per esempio il deep learning, l'apprendimento profondo, che usa modelli matematici complessi anziché gli alberi di classificazione che si basano sulle regole decisionali) e l'eventuale impiego di algoritmi spiegabili (nel senso che gli esseri umani possono descrivere il processo che li ha portati a prendere le loro decisioni), il che potrebbe impedirle di massimizzare l'accuratezza.

In secondo luogo, l'ambiente in cui opera l'apprendimento delle macchine potrebbe evolversi o differire rispetto a quello per cui erano stati sviluppati in origine gli algoritmi. Anche se ciò può avvenire in tanti modi, due dei più frequenti sono la fluttuazione del concetto (concept drift) e il mutamento covariato (covariate shift).

Con il primo, la relazione tra gli input che usa il sistema e i suoi output non rimane stabile nel tempo o viene specificata erroneamente. Considerate un algoritmo di apprendimento delle macchine per il trading azionario. Se è stato addestrato usando dati riferiti unicamente a un periodo di bassa volatilità del mercato e di alta crescita economica, potrebbe non funzionare bene quando l'economia entra in recessione o subisce uno shock – mettiamo, durante una crisi come la pandemia da Covid-19. Quando il mercato si modifica, potrebbe modificarsi anche la relazione tra gli input e gli output – per esempio tra il tasso di indebitamento di un'azienda e i suoi ritorni azionari. Un disallineamento analogo potrebbe verificarsi con i modelli di affidabilità creditizia in fasi diverse del ciclo economico.

In medicina, un esempio di fluttuazione del concetto lo vediamo quando un sistema diagnostico fondato sull'apprendimento delle macchine che impiega immagini della pelle come input per la diagnosi dei melanomi non effettua diagnosi corrette perché la relazione, supponiamo, tra il colore della pelle di qualcuno (che potrebbe variare in base alla razza o all'esposizione ai raggi solari) e la decisione diagnostica non è stata soppesata adeguatamente. A volte queste informazioni non sono nemmeno disponibili nei file sanitari elettronici che si usano per addestrare il modello di apprendimento delle macchine.

I mutamenti covariati si creano quando i dati immessi in un algoritmo durante il suo utilizzo differiscono dai dati con cui è stato addestrato. Ciò può accadere anche se gli andamenti che ha appreso l'algoritmo sono stabili e non c'è fluttuazione del concetto. Per esempio, un'azienda che produce apparecchi elettromedicali potrebbe sviluppare il proprio sistema di apprendimento delle macchine utilizzando dati relativi a grandi ospedali metropolitani. Ma quando l'apparecchio è sul mercato, i dati sanitari immessi nel sistema dagli ospedali delle zone rurali potrebbero non risultare in linea con i dati di addestramento. Gli ospedali metropolitani potrebbero avere una maggior concentrazione di pazienti appartenenti a determinati gruppi socio-demografici le cui patologie non si riscontrano comunemente negli ospedali di provincia. Queste disparità si potrebbero scoprire solo quando il dispositivo commette più errori quando è già sul mercato che nella fase di sperimentazione. A causa dell'eterogeneità dei mercati e del ritmo con cui si evolvono, sta diventando sempre più difficile prevedere cosa accadrà nell'ambiente in cui opera il sistema, e non c'è quantità di dati in grado di cogliere tutte le sfumature che si presentano nel mondo reale.

La terza ragione per cui l'apprendimento delle macchine può prendere decisioni inaccurate ha a che fare con la complessità dei sistemi più vasti in cui è incorporato. Considerate un apparecchio usato per diagnosticare una malattia sulla base di immagini inserite dai medici, come lo scanner ad alta sensibilità che identifica patologie oculari come la retinopatia diabetica e l'edema maculare, ed è stato il primo dispositivo medico basato sull'apprendimento delle macchine autorizzato dalla U.S. Food and Drug Administration. L'attendibilità di qualunque diagnosi dipende dalla chiarezza delle immagini fornite, dall'algoritmo specifico impiegato dal dispositivo, dai dati con cui è stato addestrato l'algoritmo, dalla correttezza delle istruzioni ricevute dal medico che ha inserito i dati, e via dicendo. In presenza di così tanti parametri, è difficile stabilire se e come mai un apparecchio di questo tipo potrebbe aver commesso un errore, e tanto più avere certezze sul suo comportamento.

Ma le decisioni inaccurate non sono gli unici rischi che si accompagnano all'apprendimento delle macchine. Esaminiamo ora altre due categorie di rischi: il rischio di agenzia e il rischio morale.

 

Rischio di agenzia

Le imperfezioni che caratterizzano l'apprendimento delle macchine sollevano un altro problema importante: quello dei rischi connessi a fattori che non sono sotto il controllo di un'azienda specifica o di un utilizzatore specifico.

Normalmente, si possono usare evidenze credibili per ricostruire le circostanze che hanno prodotto un incidente. Di conseguenza, quando se ne verifica uno, gli executive possono ricavarne quantomeno stime utili di quella che è la possibile esposizione della loro azienda. Ma siccome l'apprendimento delle macchine è incorporato quasi sempre in un sistema complesso, sarà spesso arduo capire esattamente cos'ha prodotto un malfunzionamento – ossia quale soggetto, o quale "agente" (per esempio lo sviluppatore dell'algoritmo, il gestore del sistema o un partner), abbia causato un errore, e se il problema dipendeva dall'algoritmo, dai dati inseriti dall'utilizzatore, o dai dati utilizzati per l'addestramento, che potrebbero provenire da vari fornitori esterni. Il cambiamento ambientale e la natura probabilistica del machine learning rendono ancora più complicato attribuire la responsabilità a un determinato agente. In realtà, incidenti o decisioni illegittime possono verificarsi anche se non c'è negligenza da parte di nessuno – perché c'è sempre la possibilità di una decisione inaccurata.

I dirigenti devono sapere quando le loro aziende hanno buone probabilità di essere giudicate responsabili in base alla normativa attuale, che potrebbe evolversi anch'essa. Pensate ancora al contesto sanitario. I tribunali hanno sempre visto nei medici i decisori di ultima istanza, per cui hanno sempre esitato ad attribuire la responsabilità per i difetti degli apparecchi elettromedicali ai produttori del software che li fa funzionare. Ma questo trend potrebbe invertirsi nel momento in cui un maggior numero di scatole nere o di sistemi autonomi fossero in grado di fare diagnosi e raccomandazioni senza il coinvolgimento (o con un coinvolgimento molto più limitato) dei medici ospedalieri. Cosa accadrebbe, per esempio, se un sistema guidato dall'apprendimento delle macchine raccomandasse un trattamento extra protocollo per un paziente specifico (come una dose di farmaco molto più alta del normale) e la regolamentazione si evolvesse in modo tale da rendere pressoché scontata la responsabilità giuridica del medico solo in caso di danni causati dal mancato rispetto delle raccomandazioni fornite dal sistema? Questi mutamenti normativi potrebbero spostare il rischio legato alla responsabilità dai medici ai progettisti di apparecchi elettromedicali supportati dall'apprendimento delle macchine, ai fornitori di dati coinvolti nello sviluppo degli algoritmi, o alle aziende che hanno contribuito a installare e a mettere in funzione questi ultimi.

 

Rischio morale

I prodotti e i servizi che prendono decisioni in modo autonomo dovranno anche risolvere dilemmi etici – un'esigenza che crea ulteriori rischi, nonché problemi normativi e di progettazione. Gli studiosi hanno cominciato a classificare questi problemi sotto il titolo progettazione responsabile degli algoritmi. Essi includono il rebus di come automatizzare il ragionamento morale. Tesla, per esempio, dovrebbe programmare le sue automobili in modo da farle ragionare in termini di costi e benefici, o in termini kantiani, per cui certi valori non possono essere negoziati, quali che siano i benefici? Anche se la risposta è utilitaristica, la quantificazione è estremamente difficile: come dovremmo insegnare a un'automobile a valutare la vita di tre persone anziane, mettiamo, contro la vita di una persona di mezza età? Come dovrebbero le aziende bilanciare, supponiamo, i trade-off tra privacy, correttezza, accuratezza e sicurezza? Tutti questi tipi di rischio si possono evitare?

Il rischio morale include anche pregiudizi legati a gruppi demografici. Per esempio, gli algoritmi che governano il riconoscimento facciale fanno fatica a identificare persone di colore; i sistemi di classificazione delle lesioni cutanee sembrano avere un'accuratezza ineguale tra una razza e l'altra; gli strumenti di previsione delle recidive assegnano ai neri e agli ispanici punteggi falsamente elevati e i sistemi di valutazione dell'affidabilità creditizia assegnano loro punteggi ingiustificatamente bassi. Con la sempre maggiore diffusione degli utilizzi commerciali, i sistemi che si fondano sull'apprendimento delle macchine potrebbero essere giudicati scorretti su alcune dimensioni nei confronti di un determinato gruppo.

Il problema viene complicato ulteriormente dai tanti modi, potenzialmente incompatibili tra loro, di definire la correttezza e di codificarne la definizione negli algoritmi. Un algoritmo per la concessione di finanziamenti si può calibrare – nel senso che le sue decisioni sono indipendenti dall'identità di gruppo a parità di livello di rischio – pur continuando a negare sproporzionatamente prestiti a minoranze pienamente solvibili. Di conseguenza, una banca o una finanziaria potrebbe trovarsi in un vicolo cieco. Se usa degli algoritmi per stabilire chi deve ottenere un prestito, potrebbe esporsi ad accuse di discriminazione nei confronti di certi gruppi in base a una delle definizioni di correttezza. Culture diverse potrebbero anche accettare definizioni diverse e trade-off etici diversi – un problema significativo per i prodotti che hanno mercati globali. Un libro bianco sull'IA pubblicato nel febbraio 2020 dalla Commissione Europea fa proprio riferimento a queste criticità: invita allo sviluppo dell'IA con "valori europei", ma un'IA costruita in questa logica si potrebbe esportare facilmente in regioni dove prevalgono altri valori?

Infine, tutti questi problemi possono essere causati anche dall'instabilità del modello. È una situazione in cui input vicini tra di loro possono portare a decisioni lontane tra di loro. Algoritmi instabili tendono a trattare persone molto simili in modo molto diverso – e potenzialmente anche scorretto.

Tutte queste considerazioni, naturalmente, non comportano la necessità di evitare del tutto l'apprendimento delle macchine. Ma i dirigenti devono sfruttare le opportunità che crea pur valutando appropriatamente i rischi.

 

Blindarlo o non blindarlo?

Se i leader decidono di impiegare l'apprendimento delle macchine, si pone immediatamente una domanda: l'azienda dovrebbe lasciare che si evolva in continuazione, o introdurne invece solo versioni sperimentate e bloccate, a intervalli regolari? Quest'ultima scelta potrebbe mitigare i rischi appena descritti?

È un problema ben noto nell'ambiente medico. Finora la FDA ha approvato solo "il software come dispositivo sanitario" (ossia un software che può svolgere le sue funzioni mediche senza hardware), i cui algoritmi sono bloccati per definizione. L'ente non ha voluto consentire l'uso di dispositivi le cui procedure diagnostiche o i cui trattamenti terapeutici continuano a cambiare con modalità che non comprende. Ma come stanno scoprendo la FDA e altri regolatori, blindare gli algoritmi potrebbe essere altrettanto rischioso, perché non previene necessariamente i seguenti pericoli:

Decisioni inaccurate. La blindatura non fa venir meno il fatto che gli algoritmi usati nell'apprendimento delle macchine basino tipicamente le decisioni su una stima delle probabilità. Inoltre, mentre l'immissione di un maggior numero di dati produce di solito una performance migliore, non è sempre così, e l'entità del miglioramento può variare; i miglioramenti che intervengono negli algoritmi non blindati potrebbero essere maggiori o minori a seconda dei sistemi e del volume di dati immessi. Anche se è difficile capire come potrebbe cambiare l'accuratezza (o l'inaccuratezza) delle decisioni quando un algoritmo è "libero", bisogna provarci comunque.

Cambiamenti ambientali. Conta anche sapere se e come si evolve l'ambiente in cui il sistema prende decisioni. Per esempio, i sistemi di pilotaggio automatico delle macchine operano in ambienti che vengono modificati costantemente dal comportamento di altri automobilisti. I sistemi di pricing, valutazione di affidabilità creditizia e trading potrebbero trovarsi di fronte a un regime di mercato in cambiamento tutte le volte che il ciclo economico entra in una nuova fase. Il problema è fare in modo che il sistema di apprendimento delle macchine e l'ambiente si evolvano assieme per consentire al sistema di prendere decisioni appropriate.

Rischi di agenzia. La blindatura di un algoritmo non elimina la complessità del sistema in cui è incorporato. Per esempio, possono verificarsi ancora errori causati dall'uso di dati di qualità inferiore forniti da partner esterni per l'addestramento dell'algoritmo o da gap di competenze tra gli utilizzatori. Può essere ancora problematico ripartire esattamente le responsabilità tra fornitori di dati, sviluppatori di algoritmi, amministratori di sistemi e utilizzatori.

Rischi morali. Un sistema blindato potrebbe conservare imperfezioni o pregiudizi ignoti ai suoi creatori. Quando analizza le mammografie alla ricerca di indicatori precoci di tumore al seno, un algoritmo bloccato non sarebbe in grado di apprendere da nuovi sottosegmenti della popolazione a cui viene applicato. Poiché la densità media delle ghiandole mammarie può variare da una razza all'altra, ciò potrebbe causare diagnosi errate se il sistema passa al vaglio persone di un gruppo demografico che era sottorappresentato nei dati di addestramento. Analogamente, un algoritmo di valutazione dell'affidabilità creditizia addestrato su un sottosegmento socio-economicamente emarginato della popolazione può discriminare certi clienti, esattamente come fa la pratica illegale del redlining (che limita arbitrariamente i prestiti in una data area o situazione, NdR). Noi vogliamo che gli algoritmi correggano questi problemi il più presto possibile auto aggiornandosi mentre "osservano" un maggior numero di dati relativi a sottopopolazioni che in precedenza non sono state ben rappresentate o tantomeno identificate. Specularmente, dispositivi i cui sistemi di apprendimento delle macchine non sono blindati potrebbero danneggiare nel tempo uno o più gruppi se si evolvono usando prevalentemente dati relativi a un altro gruppo. Per giunta, identificare il punto in cui il dispositivo diventa comparativamente peggiore nel trattamento di un gruppo specifico può essere complicato.

 

UNO STRUMENTARIO PER GLI EXECUTIVE

Allora come dovrebbero gestire i manager i rischi attuali e potenziali che si accompagnano all'apprendimento delle macchine? Sviluppare processi appropriati, accrescere la sensibilità del management e del board, porsi le domande giuste e adottare l'approccio mentale corretto sono tutte azioni importanti che vanno in quella direzione.

Trattate l'apprendimento delle macchine come se fosse un essere umano. Gli executive devono considerare l'apprendimento delle macchine un essere vivente, non una tecnologia inanimata. Così come la misurazione delle capacità cognitive dei dipendenti non rivela come andranno quando verranno inseriti in un team preesistente, i test di laboratorio non possono predire la performance di questi sistemi nel mondo reale. Gli executive dovrebbero pretendere un'analisi approfondita di come i dipendenti, i clienti o altri utilizzatori applicheranno questi sistemi e reagiranno alle loro decisioni. Anche quando non vengono obbligate a farlo dai regolatori, le aziende dovrebbero assoggettare i loro nuovi prodotti che si basano sull'apprendimento delle macchine a sperimentazioni casuali controllate per assicurarne la sicurezza, l'efficacia e la correttezza prima del lancio definitivo. Ma dovrebbero analizzare anche le decisioni prese dai prodotti una volta immessi sul mercato, dove ci sono vari tipi di utilizzatori, per capire se la qualità delle decisioni differisce dall'uno all'altro. Le aziende dovrebbero confrontare inoltre la qualità delle decisioni prese dagli algoritmi con la qualità di quelle che si prenderebbero nelle stesse situazioni senza impiegarli. Prima di lanciare definitivamente i prodotti, specie ma non solo quelli che non sono stati sottoposti a sperimentazioni casuali controllate, le aziende dovrebbero prendere in considerazione l'ipotesi di testarli in mercati limitati per farsi un'idea più precisa della loro accuratezza e del loro comportamento quando ci sono in gioco vari fattori – per esempio, quando gli utilizzatori non hanno la stessa expertise, i dati provenienti da fonti esterne variano, oppure l'ambiente si modifica. Eventuali malfunzionamenti in contesti reali segnalano la necessità di migliorare o di mandare in pensione gli algoritmi.

Mettetevi nella prospettiva del regolatore e certificate preventivamente i prodotti. Le aziende dovrebbero pianificare la certificazione dei prodotti e dei servizi che impiegano l'apprendimento delle macchine prima di andare sul mercato. Le pratiche dei regolatori mettono a disposizione una road-map affidabile. Nel 2019, per esempio, la FDA ha pubblicato un discussion paper che proponeva un nuovo schema regolamentativo per le modifiche da apportare al software di apprendimento delle macchine come dispositivo sanitario. L'approccio suggerito dal documento avrebbe consentito a questo software di migliorarsi in continuazione pur continuando a garantire la sicurezza dei pazienti, e includeva pertanto un assessment completo dell'azienda – o del team – che sviluppa il software per garantire che abbia una cultura di eccellenza organizzativa e di alta qualità, tale da promuovere il testing periodico dei suoi dispositivi basati sull'apprendimento delle macchine. Se le aziende non adottano questi processi di certificazione, potrebbero esporsi a una grave responsabilità giuridica – ad esempio, per l'inadeguata effettuazione della due diligence.

Molte start-up offrono servizi di certificazione attestanti che prodotti e servizi non risentono di preconcetti, pregiudizi, scorrettezza, discriminazione e altre improprietà. Anche organizzazioni professionali, come l'Institute of Electrical and Electronics Engineers e l'International Organization for Standardization, stanno sviluppando standard per una certificazione di questo tipo, mentre aziende come Google offrono servizi etici per l'IA che ne esaminano più dimensioni, dai dati utilizzati per addestrare i sistemi al loro impatto sul benessere. Le imprese potrebbero aver bisogno di costruire direttamente schemi di riferimento analoghi.

Monitorate in continuazione. Man mano che si evolvono i prodotti e i servizi basati sull'apprendimento delle macchine, e gli ambienti in cui operano, le aziende potrebbero scoprire che le loro tecnologie non funzionano come pensavano inizialmente. Dovrebbero adottare perciò sistemi di controllo atti a verificare che queste tecnologie "agiscano" costantemente entro limiti predeterminati. Altri settori possono fungere da modello. La Sentinel Initiative della FDA attinge a svariate fonti di dati, come i file sanitari elettronici, per monitorare la sicurezza dei prodotti medici, e può ordinarne il ritiro se non superano l'esame. I programmi di monitoraggio delle aziende si potrebbero paragonare sotto molti aspetti agli strumenti e ai processi di manutenzione preventiva che vengono usati attualmente dalle imprese industriali ed energetiche, o nella cyber sicurezza. Per esempio, le aziende potrebbero simulare attacchi all'IA come quelli utilizzati per testare regolarmente la validità delle difese che proteggono i sistemi informatici.

Fatevi le domande giuste. Executive e regolatori devono analizzare approfonditamente le seguenti aree:

→ Accuratezza e competitività. Quanto è probabile che la performance del sistema che si basa sull'apprendimento delle macchine possa migliorare con il volume dei dati ricavati dal suo utilizzo se non blindiamo l'algoritmo? Cosa possono significare questi miglioramenti in termini di business? Fino a che punto i consumatori saranno in grado di confrontare benefici e negatività dei sistemi bloccati e dei sistemi liberi di evolversi autonomamente?

→ Preconcetti. Quali dati sono stati usati per addestrare l'algoritmo? Quanto sono rappresentativi della popolazione su cui andrà poi a operare l'algoritmo? Siamo in grado di prevedere se un algoritmo non blindato produrrà risultati meno condizionati da pregiudizi rispetto a un algoritmo blindato, se gli consentiamo di apprendere nel tempo? Gli errori dell'algoritmo danneggiano minoranze o altri gruppi specifici? Un approccio fondato sul monitoraggio continuo può creare delle "barriere di sicurezza" che impediscono all'algoritmo di mettere in atto comportamenti discriminatori?

→ Ambiente. Come si modificherà nel tempo l'ambiente in cui viene usato il prodotto o il servizio? Ci sono condizioni nelle quali all'apprendimento delle macchine non si dovrebbe consentire di prendere decisioni, e se sì, quali sono? Come possiamo assicurarci che il comportamento del prodotto o del servizio si evolva appropriatamente rispetto alle modalità di cambiamento dell'ambiente? Quando dovremmo ritirare dal mercato il nostro prodotto perché il divario fra l'ambiente e il comportamento del nostro prodotto è divenuto troppo ampio? Quali sono i confini dell'ambiente entro i quali il nostro prodotto può adattarsi e operare? Quanto rimangono solidi e sicuri i nostri sistemi di apprendimento delle macchine nell'arco del loro ciclo di vita?

→ Agenzia. Da quali componenti di terzi, incluse le fonti di dati, dipende il comportamento dei nostri algoritmi di apprendimento delle macchine? Di quanto varia questo comportamento se gli algoritmi vengono usati da diversi tipi di persone – per esempio, individui meno competenti? Quali prodotti o servizi di altre organizzazioni usano i nostri dati o i nostri algoritmi di apprendimento delle macchine, esponendoci potenzialmente al rischio di responsabilità civile? Dovremmo permettere ad altre organizzazioni di usare algoritmi di apprendimento delle macchine che sviluppiamo noi?

Definite principi di azione coerenti con i vostri rischi di business. Le imprese dovranno darsi delle direttive, anche etiche, per gestire questi nuovi rischi – come hanno già fatto aziende del calibro di Google e Microsoft. Tali direttive devono essere spesso molto specifiche (per esempio in merito alle definizioni di correttezza da adottare) per risultare utili, e vanno tagliate su misura per i rischi in questione. Se utilizzate l'apprendimento delle macchine per prendere decisioni di selezione del personale, servirebbe un modello semplice, equo e trasparente. Se lo utilizzate per prevedere i prezzi dei futures sulle commodity, potreste attribuire un peso minore a quei valori e un peso maggiore alla massima perdita finanziaria accettabile per qualunque decisione che prende l'apprendimento delle macchine.

Per fortuna, il percorso che conduce allo sviluppo e all'implementazione dei principi non dev'essere necessariamente solitario. Gli executive possono imparare molto dagli sforzi pluriennali di istituzioni come l'OCSE, che ha definito i primi principi intergovernativi di autoregolamentazione dell'IA (adottati nel 2019 da numerosi Governi). I principi suggeriti dall'OCSE promuovono un'IA innovativa, affidabile e responsabilmente trasparente che rispetta i diritti umani, la legalità, la diversity e i valori democratici, e facilita la crescita inclusiva, lo sviluppo sostenibile e il benessere. Enfatizzano anche la robustezza, la sicurezza e l'innocuità dei sistemi di IA, nonché il monitoraggio continuo dei rischi che vi si associano per tutta la durata del loro ciclo di vita.

L'AI Policy Observatory, istituito recentemente dall'OCSE, fornisce altre risorse preziose, come un riepilogo esaustivo delle politiche di autoregolamentazione dell'IA in atto in tutto il mondo.

 

L'APPRENDIMENTO DELLE MACCHINE ha un potenziale enorme. Ma siccome questa tecnologia, insieme ad altre forme di IA, è profondamente inserita nel nostro tessuto economico e sociale, i rischi che pone sono destinati ad aumentare. Per le imprese, mitigarli potrebbe rivelarsi importante almeno quanto gestire l'adozione dell'apprendimento delle macchine. Se non istituiranno pratiche appropriate per affrontare questi nuovi rischi, probabilmente stenteranno ad affermarsi sul mercato.

 

Boris Babic è assistant professor of Decision Sciences all'INSEAD. I. Glenn Cohen è vice preside, docente di diritto e direttore scientifico del Petrie-Flom Center for Health Law Policy, Biotechnology, and Bioethics della Harvard Law School. Theodoros Evgeniou insegna Decision Sciences e Technology Management all'INSEAD. Sara Gerke è ricercatrice di medicina, intelligenza artificiale e diritto presso il Petrie-Flom Center.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

2 / 3

Free articles left

Abbonati!