SPECIALE

L’etica nell’era dell’IA

Reid Blackman, Tsedal Neeley, Dagny Dukach

Settembre 2023

L’etica nell’era dell’IA

Come evitare gli incubi etici legati alla tecnologia emergente

Una cornice per muoversi negli scenari peggiori che IA, computer quantistici e altre nuove tecnologie potrebbero creare

Reid Blackman

 

 

Facebook, che è stato creato nel 2004, ha accumulato 100 milioni di utilizzatori in soli quattro anni e mezzo. La rapidità e la dimensione della sua crescita è stata senza precedenti. Prima che chiunque avesse la possibilità di comprendere i problemi che ne sarebbero potuti derivare, il social media era diventato un gigante consolidato.

Nel 2015, il ruolo della piattaforma nella violazione della privacy dei cittadini e il suo potenziale in termini di manipolazione politica sono venuti alla luce grazie allo scandalo Cambridge Analytica. Più o meno nello stesso periodo, nel Myanmar, il social network ha amplificato la disinformazione e gli inviti alla violenza nei confronti dei Rohingya, una minoranza etnica del Paese, e il tutto è culminato in un genocidio iniziato nel 2016. Nel 2021, il Wall Street Journal ha riportato che Instagram, acquistato da Facebook nel 2012, aveva condotto delle ricerche che mostravano come l’app fosse dannosa per la salute mentale delle teenager.

I difensori di Facebook dicono che queste conseguenze non erano né volute né possibili da prevedere. I critici dicono che, invece di muoversi velocemente per risolvere il problema alla radice, le aziende legate ai social media avrebbero dovuto darsi da fare per evitare una catastrofe etica. Entrambe le parti convengono sul fatto che le nuove tecnologie possono far sorgere degli incubi etici e questo dovrebbe rendere le figure di spicco del mondo del business, oltre che della società nel suo insieme, molto, molto nervose.

Ci troviamo agli inizi di una nuova rivoluzione tecnologica, connessa all’intelligenza artificiale generativa, con modelli che possono produrre testi, immagini e molto altro. Sono bastati due mesi perché ChatGPT di OpenAI superasse i 100 milioni di utilizzatori. Nel giro di sei mesi dal lancio, Microsoft ha rilasciato una nuova versione di Bing, basata su ChatGPT; Google ha avviato la demo del suo large language model (LLM), Bard, e Meta ha rilasciato LLaMA. Molto probabilmente, ChatGPT5 arriverà prima ancora che ce ne accorgiamo. E, a differenza dei social media che rimangono in buona parte centralizzati, questa tecnologia è già nelle mani di migliaia di persone. I ricercatori di Stanford hanno ricreato ChatGPT con un costo di circa 600 dollari e hanno reso open-source il loro modello, chiamato Alpaca. All’inizio di aprile, più di 2400 persone avevano creato la loro versione del modello.

Anche se in questo momento l’IA generativa ha tutta la nostra attenzione, sono in arrivo altre tecnologie che potrebbero avere un impatto altrettanto forte. I computer quantistici faranno sembrare l’attuale elaborazione dati come dei bambini dell’asilo che contano usando le dita. Le tecnologie Blockchain vengono sviluppate andando al di là della loro applicazione ristretta nel campo delle criptovalute. La realtà aumentata e quella virtuale, la robotica, la manipolazione genetica e molte altre tecnologie che non possiamo qui discutere in dettaglio hanno il potenziale per ridefinire il nostro mondo, nel bene o nel male.

Se i precedenti insegnano qualcosa, le aziende che stanno lanciando queste tecnologie nel mondo adotteranno un approccio del tipo “vediamo come vanno le cose”. La storia ci fa pensare anche che questo non sarà un bene per gli ignari soggetti del test, cioè il grande pubblico. È difficile non temere che, accanto ai benefici che offriranno, questi salti tecnologici comporteranno un livello tale di rischi in termini sociali da costringerci a impiegare i prossimi 20 anni e più a cercare di risolverli.

È arrivato il momento di adottare un nuovo approccio. Le aziende che sviluppano queste tecnologie devono chiedersi: «Come possiamo svilupparle, applicarle e monitorarle evitando gli scenari peggiori?». Le aziende che acquisiscono e, in certi casi, personalizzano queste tecnologie (come sta accadendo ora con ChatGPT) si trovano di fronte a una sfida ugualmente impegnativa: «Come possiamo progettarle e diffonderle senza mettere in pericolo le persone (e il nostro brand)?»

In questo articolo, cercherò di convincervi di tre cose. La prima è che le aziende devono identificare in modo chiaro i rischi posti da queste nuove tecnologie, definendoli in termini di rischi etici, o, ancora meglio, di potenziali incubi etici. Gli incubi etici non sono soggettivi: le violazioni sistematiche della privacy, la diffusione di una disinformazione che può minare alle basi la democrazia e il fatto di offrire ai bambini contenuti inappropriati sono cose che appaiono terribili a ciascuno di noi. Non mi interessa su quale parte dello spettro politico si trovi la vostra azienda – se siete Patagonia oppure Hobby Lobby – perché questi incubi etici ci riguardano tutti, senza distinzione alcuna.

 

La seconda cosa è che, a causa del modo in cui queste tecnologie funzionano e che le rende ciò che sono, la probabilità di correre dei rischi dal punto di vista etico e reputazionale è aumentata enormemente.

Il terzo punto è che, in definitiva, sono i leader aziendali e non gli esperti di tecnologia, i data scientist, gli ingegneri, i programmatori o i matematici a essere responsabili di tutto questo. I dirigenti di alto livello sono coloro che determinano cosa viene creato, il modo in cui avviene e il livello di attenzione o di sconsideratezza con cui viene messo a terra e monitorato.

Queste tecnologie introducono possibilità che fanno paura, ma non è così complicato affrontarle: i leader devono formulare i loro scenari peggiori – i loro incubi etici – e spiegare come intendono prevenirli. Il primo step consiste nel parlare di etica senza timore.

 

I leader aziendali non possono aver paura di dire “etica”

Dopo vent’anni nelle università, dieci dei quali trascorsi a fare ricerca, insegnare e pubblicare su temi legati all’etica, nel 2018 ho preso parte al mio primo convegno non accademico. Era sponsorizzato da un’azienda di servizi finanziari che fa parte delle Fortune 50 e il tema era “sostenibilità”. Dato che mi ero occupato di tematiche connesse all’etica ambientale, pensavo che sarebbe stato interessante vedere come le aziende leggono le proprie responsabilità quando vengono messe di fronte agli impatti che producono. Quando sono arrivato al convegno, ho trovato delle presentazioni sull’importanza dell’istruzione femminile nel mondo, del far uscire le persone dalla povertà e del contribuire al benessere mentale e fisico di tutti; pochi parlavano di ambiente.

Mi ci è voluto del tempo (così lungo da risultare quasi imbarazzante) per capire che nel mondo aziendale e in quello del non profit, la parola “sostenibilità” non vuol dire “pratiche che non distruggono l’ambiente, preservandolo per le generazioni future”. Significa invece “pratiche che perseguono obiettivi di tipo etico” e l’idea che queste pratiche sostengono il risultato economico. Non riuscivo proprio a capire perché le aziende non parlassero semplicemente di “etica”.

Questo atteggiamento, che consiste nel rimpiazzare la parola “etica” con qualche altro termine meno preciso, è diffuso. Esistono degli investimenti su temi legati alle questioni ambientali, sociali e di governance (ESG), il che si riduce al fatto di investire in aziende che evitano i rischi etici (emissioni, diversity, azioni politiche e così via) sulla base dell’assunto che tali pratiche proteggono i profitti. Alcune aziende dichiarano di farsi “guidare dai valori”, “guidare dalla mission” o “guidare dal purpose”, ma tali espressioni raramente hanno qualcosa a che vedere con l’etica. “Ossessionati dal cliente” e “innovazione” non sono dei valori etici: un purpose o una mission possono essere del tutto amorali (per non dire immorali). Il cosiddetto “capitalismo degli stakeholder” è un capitalismo moderato da un vago impegno verso il benessere di stakeholder non ben identificati (come se gli interessi degli stakeholder non potessero entrare in conflitto tra loro). Infine, il mondo dell’etica dell’IA si è sviluppato tantissimo nel corso degli ultimi cinque anni o giù di lì. Le aziende sentono la richiesta “Vogliamo l’etica dell’IA!” e la loro risposta distorta è “Sì, anche noi siamo per un’IA responsabile!”

Le sfide etiche non scompaiono grazie a magheggi semantici. Dobbiamo chiamare per nome e cognome i nostri problemi se vogliamo affrontarli in modo efficace. La sostenibilità consiglia di non usare i dati personali per azioni di marketing mirato? In quali casi usare un modello black box (un approccio all’intelligenza artificiale che considera impossibile spiegare le modalità di scelta o di predizione della macchina, NdT) viola i criteri ESG? Cosa succede se la vostra mission, che consiste nel creare connessioni tra le persone, mette in contatto fra loro dei suprematisti bianchi?

Focalizziamoci sul passaggio da “etica dell’IA” a “IA responsabile” considerandolo come un caso studio sugli impatti problematici che possono derivare da un cambiamento di linguaggio. Per prima cosa, quando i leader aziendali parlano di una IA “responsabile” e “degna di fiducia”, toccano un ventaglio ampio di questioni che vanno dalla cybersecurity agli aspetti normativi, dalle questioni legali ai rischi tecnici e ingegneristici. Si tratta di cose importanti, ma il risultato finale è che esperti di tecnologia e di rischio, avvocati e ingegneri che si occupano di cybersecurity si concentrano su aree di cui sanno già tutto. In altre parole, di qualsiasi cosa fuorché di etica.

In secondo luogo, quando si tratta di etica, i leader rimangono su valori e principi di livello molto alto e astratto, su concetti come quello di equità e di rispetto per l’autonomia. Dato che questa è solo una piccola parte del quadro complessivo della “IA responsabile”, le aziende spesso non arrivano a comprendere le modalità – molto reali e concrete – con cui questi temi si sviluppano all’interno dei loro prodotti. Tutti quegli incubi etici che vanno al di là di normative e leggi ormai obsolete non vengono identificati e hanno la stessa probabilità di verificarsi di quando non era ancora stata definita una cornice di “IA responsabile”.

Terzo aspetto, concentrarsi sull’identificazione e sull’attuazione di una “IA responsabile” rappresenta per le aziende un obiettivo vago e step intermedi altrettanto fumosi. Le dichiarazioni riguardo questa che vengono dalle aziende sono del tipo “Siamo per la trasparenza, la chiarezza e l’equità”. Ma nessun’azienda è trasparente su tutto con tutti (e nemmeno dovrebbe esserlo); non tutti i modelli di IA devono essere spiegati in modo chiaro e c’è un ampio dibattito su cosa si debba intendere con equo. Nessuna meraviglia, allora, che le aziende che si “impegnano” nel raggiungimento di questi valori li abbandonino rapidamente. Non ci sono obiettivi in queste cose. Nessuno step intermedio. Nessun requisito. E non si capisce nemmeno bene in cosa consisterebbe un fallimento.

Quando l’etica dell’IA fallisce, però, le conseguenze sono estremamente specifiche. Gli incubi etici sono evidenti: «Abbiamo discriminato decine di migliaia di persone». «Abbiamo ingannato le persone inducendole a darci un sacco di soldi». «Violiamo sistematicamente la privacy personale». In breve, se sapete quali sono i vostri incubi etici, allora sapete in cosa consiste un fallimento etico.

 

Da dove vengono gli incubi etici

Capire come funzionano le tecnologie emergenti – cosa le manda avanti – ci aiuterà a capire perché la probabilità di correre dei rischi etici e reputazionali è aumentata in modo significativo. Mi concentrerò su tre delle tecnologie più importanti.

Intelligenza artificiale. Iniziamo con una tecnologia che è sulla bocca di tutti: l’intelligenza artificiale o IA. La maggior parte dell’IA a disposizione è rappresentata dal machine learning (ML). Per dirla in modo semplice, il “machine learning” è un software che impara tramite esempi. E proprio come le persone imparano a discriminare sulla base di razza, genere, etnia o altri attributi nascosti seguendo gli esempi che li circondano, lo stesso fa il software.

Supponiamo che vogliate insegnare al vostro software a riconoscere le foto del vostro cane, Zeb. Fornite al software svariati esempi e gli dite “Questo è Zeb”. Il software “impara” da questi esempi e, quando fate una nuova foto al vostro cane, la riconosce come una foto di Zeb ed etichetta la foto “Zeb”. Se non è una foto di Zeb, etichetterà il file come “non Zeb”. Il processo è lo stesso se fornite al vostro software degli esempi di come dovrebbe essere un curriculum che consenta a un candidato di accedere a un colloquio di lavoro. Il software imparerà da questi esempi ed etichetterà i nuovi curriculum come meritevoli o non meritevoli di accedere a un colloquio; lo stesso vale per le candidature all’università, per la richiesta di un mutuo o per ottenere la libertà vigilata.

In tutti questi casi, il software sta riconoscendo e replicando dei pattern. Il problema è che, a volte, questi schemi sono discutibili da un punto di vista etico: per esempio, se gli esempi di curriculum che rendono le persone meritevoli di accedere a un colloquio di lavoro riflettono dei pregiudizi del passato o del presente nei confronti di determinate razze, etnie o generi, allora il software si baserà su di essi per fare la sua scelta. Tempo fa, Amazon ha creato un’IA per la valutazione dei curriculum. E per determinare la possibilità di accedere alla libertà vigilata, il sistema di giustizia criminale degli Stati Uniti ha utilizzato algoritmi predittivi che replicavano i pregiudizi storici nei confronti degli imputati neri.

È fondamentale notare che il pattern discriminatorio può essere identificato e replicato indipendentemente dalle intenzioni dei data scientist e degli ingegneri che programmano il software. In effetti, i data scientist di Amazon hanno rilevato il problema contenuto nell’IA di cui abbiamo parlato poco fa e hanno cercato di risolverlo, ma senza riuscirci. Amazon decise, correttamente, di cancellare il progetto, ma se fosse stato realizzato, un manager addetto alle assunzioni avrebbe utilizzato involontariamente uno strumento basato su una modalità di funzionamento che dal punto di vista etico è discriminatoria, qualunque fossero le sue intenzioni e i valori espliciti dell’organizzazione.

Gli impatti in materia di discriminazione sono solo uno degli incubi etici da evitare quando si parla di IA. Ci sono anche problematiche legate alla privacy, il rischio che modelli di IA (specialmente gli LLM come ChatGPT) vengano utilizzati per manipolare le persone, i costi ambientali connessi all’enorme potenza di calcolo richiesta e tanti altri rischi legati ai singoli casi di applicazione.

Computer quantistici. I dettagli dei computer quantistici sono enormemente complicati, ma per i nostri scopi ci serve sapere solo che sono calcolatori in grado di elaborare quantità gigantesche di dati. Possono svolgere in pochi minuti o, addirittura, in pochi secondi calcoli che i supercomputer di oggi avrebbero bisogno di migliaia di anni per effettuare. Aziende come IBM e Google stanno spendendo miliardi di dollari in questa rivoluzione dell’hardware e stiamo per assistere a una sempre maggiore integrazione, anno dopo anno, del calcolo quantistico all’interno dei computer classici.

I computer quantistici gettano benzina sul fuoco di un problema che abbiamo già osservato parlando del machine learning: la questione dell’IA inspiegabile o black box. In poche parole, questo vuol dire che in molti casi non siamo in grado di sapere per quale motivo l’IA effettui una determinata previsione. Quando un software fotografico osserva tutte le immagini di Zeb, analizza queste immagini a livello di pixel. In modo più specifico, sta identificando tutti i pixel e le migliaia di relazioni tra questi che costituiscono il “pattern Zeb”. Questi pattern matematici che identificano Zeb sono incredibilmente complessi, troppo complessi perché noi semplici mortali riusciamo a comprenderli, e questo vuol dire che non riusciamo a capire per quale motivo il software abbia etichettato (in modo corretto o meno) questa nuova foto “Zeb”. E anche se nel caso di Zeb non dovesse interessarci avere tutte le spiegazioni, se il software dicesse di rifiutare un colloquio a una determinata persona (o di negare un mutuo, una polizza assicurativa o un’ammissione all’università), ecco allora che la faccenda inizierebbe a essere di nostro interesse.

I computer quantistici rendono i modelli black box veramente impenetrabili. In questo esatto momento, i data scientist possono fornire spiegazioni sugli output di un’IA che sono delle rappresentazioni semplificate di ciò che accade realmente. Oltre un certo punto, però, semplificare vuol dire distorcere. E dato che i computer quantistici possono elaborare migliaia di miliardi di data point, riportare il processo a un livello di spiegazione per noi comprensibile (mantenendo allo stesso tempo la fiducia nell’idea che la spiegazione sia più o meno vera) diventa incredibilmente difficile.

Questo fa sorgere una miriade di questioni etiche: in quali condizioni possiamo fidarci degli output di un modello black box (quantistico)? Quali sono i termini di paragone appropriati da considerare per la performance? Cosa facciamo se il sistema sembra non funzionare o si comporta in modo strano? Accettiamo in modo acritico gli output imperscrutabili di una macchina solo perché in precedenza si è dimostrata affidabile? Oppure scartiamo questi output a favore della nostra capacità di ragionamento umana, più limitata ma comprensibile?

Blockchain. Supponiamo che voi, io e qualche migliaio di amici possediamo un blocco note magico ciascuno e che abbia le seguenti caratteristiche: quando qualcuno scrive su una pagina, la scrittura appare simultaneamente sui blocchi note di tutti gli altri. Niente di quello che viene scritto su una pagina può essere cancellato. Le informazioni sulle pagine e la sequenza di queste sono immutabili; nessuno può rimuoverle o ridisporle. Una pagina privata, protetta da una frase d’accesso, elenca i vostri beni – denaro, opere d’arte, terreni – e quando trasferite un bene a qualcun altro, sia la vostra pagina che quella dell’altra persona vengono simultaneamente e automaticamente aggiornate.

A un livello molto generale, questo è il modo in cui funziona la blockchain. Ciascuna segue un insieme specifico di regole che sono inscritte nel suo codice e le modifiche di queste vengono decise da chiunque si trovi a gestire la blockchain. Come per qualunque altra forma di gestione, però, la qualità della governance di una blockchain dipende dal modo in cui rispondiamo a una serie di domande importanti: quali dati le appartengono e quali no? Chi decide cosa accade? Quali sono i criteri che determinano l’inclusione di un dato? Chi monitora il tutto? Quale protocollo seguiamo nel caso in cui salti fuori un errore nel codice della blockchain? Chi decide se deve essere introdotto un cambiamento rilevante su una blockchain? In che modo vengono distribuiti il potere e i diritti di voto?

Una cattiva governance della blockchain può generare scenari da incubo, come ad esempio persone che perdono i loro risparmi, informazioni personali rese pubbliche contro il volere dei diretti interessati oppure false informazioni che vengono collegate alle pagine sui beni delle persone generando inganni e frodi.

La blockchain viene associata solitamente a servizi di tipo finanziario, ma in ogni settore si cerca di integrare qualche tipo di soluzione blockchain e in ciascun caso si celano trappole specifiche. Per esempio, potremmo utilizzarla per archiviare, recuperare e distribuire informazioni relative ai dati sui pazienti e questo, nel caso di una cattiva gestione, potrebbe portare all’incubo etico di una violazione della privacy su larga scala. Le cose sembrano ancora più pericolose quando ci rendiamo conto che non esiste un solo tipo di blockchain e che ci sono diversi modi per governarne una. E dato che le regole di base di una determinata blockchain sono molto difficili da cambiare, le decisioni iniziali su quale sviluppare e su come mantenerla sono estremamente importanti.

 

Sono problemi di business, non (solo) di tecnologia

La capacità delle aziende di adottare e utilizzare queste tecnologie via via che evolvono sarà essenziale per la loro competitività. Per questo i leader dovranno cercare di porsi questo tipo di domande e di darsi delle risposte:

●      In cosa consiste una distribuzione ineguale, ingiusta o discriminatoria di prodotti e servizi? 

●      Utilizzare un modello black box è accettabile in questo contesto?

●      Il chatbot sta manipolando in maniera inaccettabile gli utilizzatori?

●      La governance della blockchain è equa, ragionevole e solida?

●      I contenuti della realtà aumentata sono appropriati per il pubblico di riferimento?

●      La responsabilità ricade sulla nostra organizzazione, sull’utilizzatore o sul Governo?

●      Questo comporta un onere esagerato per gli utilizzatori?

●      Tutto questo è disumano?

●      Se viene utilizzata o sovrautilizzata su larga scala potrebbe erodere la fiducia nella democrazia?

Per quale motivo questa responsabilità ricade sui leader aziendali e non, poniamo, sugli esperti di tecnologia che hanno il compito di implementare i nuovi strumenti e i nuovi sistemi? Dopo tutto, la maggior parte dei leader non ha familiarità con la programmazione e con gli algoritmi su cui si basa un software che apprende attraverso gli esempi, con la fisica quantistica che sta dietro i computer quantistici e con la crittografia che sottende a una blockchain. Non dovrebbero essere gli esperti a doversi fare carico di decisioni pesanti come queste?

Il fatto è che non si tratta di questioni tecniche: sono questioni etiche e di tipo qualitativo. Sono esattamente il genere di problemi per i quali i business leader – guidati da esperti degli ambiti più rilevanti – sono chiamati a trovare delle risposte. Scaricare questa responsabilità su programmatori, ingegneri e dipartimenti IT non è corretto nei confronti delle persone che occupano questi ruoli e imprudente per l’organizzazione. È comprensibile che i leader possano trovare questo compito inquietante, ma non c’è dubbio che la responsabilità tocchi a loro.

 

La sfida dell’incubo etico

Ho cercato di persuadervi di tre cose. La prima è che i leader e le organizzazioni devono identificare in modo esplicito i propri incubi etici connessi alle nuove tecnologie. La seconda è che una fonte significativa di rischio risiede nel modo in cui queste tecnologie funzionano. E la terza è che sono i dirigenti di alto livello a dover guidare le loro rispettive organizzazioni rispetto alle tematiche di tipo etico.

Questi elementi portano a una conclusione: le organizzazioni che fanno leva sulle tecnologie digitali devono affrontare gli incubi etici prima che danneggino persone e brand. Chiamo questa necessità “la sfida dell’incubo etico”. Per superarla, le aziende devono creare un programma sul rischio etico digitale che coinvolga tutta l’organizzazione. La prima parte del programma – che io chiamo la parte di contenuto – pone una domanda su quali siano gli incubi etici che cerchiamo di evitare e da dove potrebbero sorgere. La seconda parte del programma – che chiamo la parte di struttura – risponde alla domanda: in che modo possiamo far sì, in modo ampio e sistematico, che questi incubi non diventino realtà?

Contenuto. Gli incubi etici possono essere declinati con diversi livelli di dettaglio e personalizzazione. I vostri incubi etici sono in parte determinati dal settore in cui vi trovate, dal tipo di organizzazione che siete e dal genere di relazioni che dovete stabilire con i vostri clienti e gli altri stakeholder per far funzionare bene le cose. Per esempio, se siete un’azienda che fornisce servizi sanitari i cui medici utilizzano ChatGPT o un altro LLM per definire diagnosi e terapie, allora il vostro incubo etico potrebbe includere prescrizioni errate che il vostro personale, per mancanza di formazione, non è in grado di individuare. O, se il vostro chatbot non è sufficientemente “formato” sulle informazioni connesse a particolare razze o etnie, e né gli sviluppatori del chatbot né i medici lo sanno, allora il vostro incubo etico diventerebbe quello di fornire sistematicamente diagnosi e cure sbagliate a persone che sono già state discriminate. Se siete un’azienda che fornisce servizi finanziari e utilizzate la blockchain per compiere transazioni per conto dei clienti, allora un incubo etico potrebbe essere l’incapacità di correggere gli errori di codice: una conseguenza tipica delle blockchain mal governate. Questo potrebbe voler dire, ad esempio, non essere in grado di annullare dei trasferimenti fraudolenti.

Come potete vedere, declinare gli incubi significa definire in modo preciso dettagli e conseguenze. Più specifici riuscite a essere (e questo dipende dal vostro grado di conoscenza e comprensione delle tecnologie, del vostro settore, dei diversi contesti in cui le vostre tecnologie verranno utilizzate, dalla vostra immaginazione morale e dalla vostra capacità di riflettere sulle implicazioni etiche delle attività aziendali) più semplice sarà creare la struttura adeguata per controllare queste cose.

Struttura. Mentre i metodi per identificare gli incubi valgono per le diverse tipologie di organizzazione, le strategie per creare dei meccanismi di controllo adeguati dipendono dalle dimensioni dell’organizzazione, dalle strutture di governance esistenti, dalla propensione al rischio, dalla cultura manageriale e da altri fattori. Le modalità con cui le aziende approcciano questi temi possono essere formali o informali. In un mondo ideale, ogni organizzazione adotterebbe l’approccio formale. Tuttavia, fattori come tempo e risorse limitati, la rapidità con cui un’azienda (a torto o a ragione) ritiene che sarà influenzata dalle tecnologie digitali e le necessità aziendali in un mercato imprevedibile rendono a volte ragionevole scegliere l’approccio informale. In questi casi dovrebbe essere considerato come un primo passo, e questo è già meglio di niente.

L’approccio formale è sistematico ed esauriente e per essere messo in piedi richiede parecchio tempo e risorse. In breve, si basa sulla capacità di creare e attuare una strategia di rischio etico digitale che coinvolga tutta l’azienda. In generale, ciò comporta quattro fasi.

Formazione e allineamento. Per prima cosa, i leader che si trovano ai vertici dell’azienda devono avere un livello di comprensione delle tecnologie tale da convenire su quali possono essere gli incubi etici dell’organizzazione. La conoscenza e l’allineamento dei leader sono dei prerequisiti per la creazione e l’implementazione di una strategia solida di rischio etico digitale.

La formazione in questo campo può essere realizzata attraverso briefing manageriali, workshop e seminari. Ciò non vuol dire conoscere (o cercare di insegnare) la matematica o la programmazione. Questo processo serve a far sì che sia gli esperti sia i non esperti di tecnologia capiscano quali rischi la loro azienda può correre. Inoltre, deve riguardare gli incubi etici dell’organizzazione, non la sostenibilità, i criteri ESG o i “valori aziendali”.

Analisi dei gap e della fattibilità. Prima di creare una strategia, i leader devono sapere com’è fatta la loro organizzazione e quali probabilità ci sono che i loro incubi diventino realtà. Per questo, la seconda fase consiste nel condurre delle analisi dei gap e della fattibilità, per capire a che punto si trova in questo momento l’organizzazione; quanto è distante dal potersi considerare al sicuro dal verificarsi dell’incubo etico e di cosa ci sarà bisogno in termini di persone, processi e tecnologia per superare i gap esistenti.

Per farlo, i leader devono capire dove si trovano le loro tecnologie digitali e dove saranno con maggiori probabilità progettate o acquisite all’interno dell’organizzazione. Perché se non sapete come funzionano, come vengono utilizzate o in che direzione stanno andando le tecnologie, non avrete alcuna speranza di evitare gli incubi.

Dopodiché, ecco affiorare una serie di domande:

●      Quali policy, che siano in grado o meno di affrontare i vostri incubi etici, sono presenti?

●      Quali processi utili a identificare gli incubi etici vengono attuati? Devono essere potenziati? Ne servono di nuovi?

●      Quale livello di consapevolezza hanno i vostri dipendenti rispetto ai rischi etici digitali? Sono nelle condizioni di cogliere i segni dei problemi in una fase iniziale? La cultura permette loro di parlare in modo sicuro di eventuali campanelli d’allarme?

●      Quando viene lanciato un allarme, chi interviene e su quali basi si decide di andare avanti?

●      In che modo attuate e integrate la valutazione dei rischi etici digitali in relazione alle categorie e alle operazioni connesse ai rischi d’impresa già presenti?

Le risposte a domande di questo genere varieranno enormemente a seconda delle organizzazioni. Questo è uno dei motivi per cui le strategie di gestione del rischio etico digitale sono difficili da creare e implementare: devono essere personalizzate per integrarsi con le strutture di governance, le policy, i processi, i flussi di lavoro, i tool e le persone già presenti. È facile dire “tutti hanno bisogno di un comitato dedicato al rischio etico digitale”, sulla falsariga dei tavoli istituzionali che nascono nel settore medico per mitigare i rischi etici che possono derivare da una ricerca fatta sulle persone. Ma non è possibile continuare dicendo “ogni comitato dovrebbe essere fatto così, agire in questo modo e comportarsi così con gli altri gruppi del settore”. In questo caso, una buona strategia non deriva da soluzioni buone per tutte le situazioni.

Creazione della strategia. La terza fase dell’approccio formale consiste nel creare una strategia aziendale a partire dall’analisi dei gap e della fattibilità. Questo comprende, tra le altre cose, raffinare gli obiettivi, decidere un approccio alle metriche e ai KPI (per misurare sia il livello di compliance rispetto al programma di rischio etico digitale, sia il suo impatto), progettare un piano di comunicazione e identificare i driver fondamentali del successo in fase di implementazione.

Il coinvolgimento inter funzionale è fondamentale. Tutti i leader che si occupano di tecnologia, rischio, compliance, affari legali e cybersecurity dovrebbero essere coinvolti. È poi altrettanto importante che a indicare la direzione siano il consiglio di amministrazione e il CEO. Senza una loro robusta adesione e senza il loro incoraggiamento, il programma risulterà indebolito.

Implementazione. La quarta e ultima fase è l’implementazione della strategia, che comporta una riconfigurazione dei flussi di lavoro, formazione, supporto e un costante monitoraggio, senza dimenticare gli aspetti legati al mantenimento e al miglioramento della qualità.

Per esempio, dovrebbero venire messe a punto nuove procedure specifiche per ogni area di business o ruolo, in modo da integrarle con le procedure e i flussi di lavoro già in essere. Queste procedure dovrebbero definire in modo chiaro ruoli e responsabilità dei diversi dipartimenti e delle diverse persone e stabilire processi chiari per identificare, segnalare e affrontare questioni di tipo etico. Inoltre, i nuovi flussi di lavoro devono ricercare un bilanciamento ottimale nell’interazione uomo-macchina (e ciò dipenderà dal tipo di compiti e dai rischi connessi) e devono stabilire una supervisione umana dei flussi automatizzati.

L’approccio informale, d’altro canto, comporta solitamente i seguenti step: l’impegno da parte dei leader a formare e allineare le persone sugli incubi etici; l’affidamento ai manager che fanno parte di specifiche unità di business (come HR, marketing, produzione o ricerca e sviluppo) del compito di identificare i processi necessari per effettuare una verifica completa degli incubi etici; la creazione di un comitato sul rischio etico (o appoggiandosi a uno esistente) per dare suggerimenti alle persone, sia su singoli progetti che su scala più ampia, quando si individuano dei rischi etici.

Questo approccio non richiede modifiche ufficiali delle policy, l’armonizzazione e l’integrazione dei diversi dipartimenti, cambiamenti ufficiali della struttura di governance o azioni simili. Anche se può avere un impatto importante, si tratta di un approccio non sistematico e non esauriente. I rischi etici possono scivolare tra gli interstizi e poi finire in prima pagina.

Nel mio lavoro, ho scoperto che la stragrande maggioranza delle organizzazioni è gestita e portata avanti da brave persone che non hanno alcuna intenzione di danneggiare nessuno. Ho però notato anche che “etica” è una parola che nella maggior parte delle aziende risulta difficile da maneggiare. È considerata soggettiva o “vischiosa” ed esterna all’ambito del business.

Entrambe queste idee sono scorrette. Invadere la privacy delle persone, automatizzare la discriminazione su larga scala, minare le basi della democrazia, mettere a rischio i bambini e tradire la fiducia delle persone sono problematiche evidenti. Sono incubi etici su cui praticamente chiunque può convenire.

Invece di comprendere il loro ruolo in tutto questo e cercare di prevenire i rischi, molti leader rimangono concentrati sulle pratiche abituali: ruoli e responsabilità sono prestabiliti. I report trimestrali si devono produrre. Gli azionisti ci osservano. Le persone hanno le loro attività quotidiane da portare avanti, non possono anche diventare i guardiani della sfera morale. In molti casi, non è il male ad essere nemico del bene (o, perlomeno, di ciò che male non è) bensì le procedure operative standard. Forse, in passato, determinati strumenti hanno avuto bisogno di essere animati dall’intenzione malvagia di chi li possedeva per generare scompiglio, ma agli strumenti di oggi tutto questo non serve.

Se date alle persone l’opportunità e un po’ di respiro per fare la cosa giusta, saranno ben contente di farla. Creare un’opportunità non significa solo permettere, ma incoraggiare o spingere le persone a parlare la lingua degli incubi etici. Fare di tutto questo una priorità. Inserirlo nella strategia aziendale esistente. Fare in modo che tutti all’interno dell’organizzazione possano parlarvi degli incubi presenti e che possano snocciolare le cinque o sei cose che l’azienda fa a livello di attività operativa quotidiana per far sì che questi rischi non si verifichino.

I leader devono capire che sviluppare una strategia di rischio etico digitale rientra tra le loro competenze. La maggior parte dei dipendenti e dei consumatori vuole che le organizzazioni abbiano una strategia sul rischio etico digitale. I manager non dovrebbero far finta di nulla.

 

Reid Blackman è autore di Ethical machines (Harvard Business Press, 2022) e anima l’omonimo podcast. È fondatore e CEO di Virtue, società di consulenza sul rischio etico digitale. È consulente del governo canadese sull’IA e supporta le organizzazioni nei programmi sul rischio etico digitale. È stato consulente presso il Deloitte AI Institute, ha fatto parte dell’AI Advisory Board di Ernst & Young e ha lavorato come chief ethics officer nella società non profit Government Blockchain Association. È stato professore di Filosofia alla Colgate University e all’Università della North Carolina.

 

Per un utilizzo responsabile dell’intelligenza artificiale

Come evitare le insidie legate alla privacy dei dati, ai pregiudizi, alla disinformazione, all’IA generativa e ad altro ancora

 

Tsedal Neeley

 

Sebbene la questione di come le organizzazioni possano (e debbano) usare l’IA non sia nuova, la posta in gioco e la necessità di utilizzare l’IA in modo responsabile sono salite alle stelle con il rilascio di ChatGPT, Midjourney e altri strumenti di IA generativa. Le domande che tutti si pongono sono: come possiamo usare gli strumenti di IA per aumentare le prestazioni? Possiamo fidarci dell’IA per prendere decisioni importanti? L’IA mi toglierà il lavoro?

La potenza dell’IA introdotta da OpenAI, Microsoft e Nvidia – e la pressione a competere nel mercato – rendono inevitabile per la vostra organizzazione affrontare le questioni operative ed etiche connesse al machine learning (apprendimento automatico), ai modelli linguistici di grandi dimensioni (LLM) e molto altro ancora. E mentre molti leader si concentrano sulle sfide operative e sulle discontinuità, le preoccupazioni etiche sono altrettanto – se non più – pressanti. Considerando il ritardo delle normative rispetto alle capacità tecnologiche e la rapidità con cui il panorama dell’IA sta cambiando, l’onere di garantire che questi strumenti siano utilizzati in modo sicuro ed etico ricade sulle aziende.

Nel mio lavoro, all’intersezione tra professioni, tecnologia e organizzazioni, ho esaminato come i leader possono sviluppare mentalità digitali e i pericoli di LLM distorti. Ho identificato le migliori pratiche per l’uso della tecnologia da parte delle organizzazioni e ho amplificato le questioni conseguenti che assicurano che le implementazioni dell’IA siano etiche. Per aiutarvi a identificare meglio il modo in cui voi e la vostra azienda dovreste pensare a questi problemi – e, non fate errori, dovreste pensarci – ho collaborato con HBR per rispondere a otto domande poste dai lettori su LinkedIn.

 

1

Come devo prepararmi per introdurre l’IA nella mia azienda?

Per cominciare, è importante riconoscere che il modo ottimale di lavorare con l’IA è diverso da quello con cui abbiamo lavorato con altre nuove tecnologie. In passato, la maggior parte dei nuovi strumenti ci permetteva semplicemente di svolgere le attività in modo più efficiente. Si scriveva con le penne, poi con le macchine da scrivere (che erano più veloci), poi con i computer (che erano ancora più veloci). Ogni nuovo strumento ha permesso di scrivere in modo più efficiente, ma i processi generali (stesura, revisione, editing) sono rimasti in gran parte gli stessi.

L’intelligenza artificiale è diversa. Ha un’influenza più sostanziale sul nostro lavoro e sui nostri processi, perché è in grado di trovare schemi che noi non riusciamo a vedere e di utilizzarli per fornire intuizioni e analisi, previsioni, suggerimenti e persino bozze complete, tutto da sola. Quindi, invece di pensare all’IA come agli strumenti che già utilizziamo, dovremmo considerarla come un insieme di sistemi con cui possiamo collaborare. Per farlo efficacemente nella vostra organizzazione, concentratevi su tre aspetti:

Primo, assicuratevi che tutti abbiano una comprensione di base del funzionamento dei sistemi digitali. Una mentalità digitale è un insieme di atteggiamenti e comportamenti che aiutano a vedere nuove possibilità utilizzando dati, tecnologia, algoritmi e IA. Non è necessario diventare programmatori o scienziati dei dati; è sufficiente adottare un approccio nuovo e proattivo alla collaborazione (imparare a lavorare su più piattaforme), al calcolo (porre e rispondere alle domande giuste) e al cambiamento (accettare che è l’unica costante). Tutti i membri dell’organizzazione dovrebbero lavorare per raggiungere almeno il 30% di fluidità in un serie di argomenti, come l’architettura dei sistemi, l’IA, l’apprendimento automatico e gli algoritmi, gli agenti di IA come compagni di squadra, la cybersecurity e la sperimentazione guidata dai dati.

In secondo luogo, assicuratevi che la vostra organizzazione sia preparata all’adattamento e al cambiamento continui. L’introduzione di nuove IA richiede che i dipendenti si abituino a elaborare nuovi flussi di dati e contenuti, ad analizzarli e a utilizzare le loro scoperte e i loro risultati per sviluppare una nuova prospettiva; allo stesso modo, per utilizzare i dati e la tecnologia nel modo più efficiente, le aziende hanno bisogno di una struttura organizzativa integrata. L’azienda deve diventare meno isolata e creare un archivio centralizzato di conoscenze e dati per consentire una condivisione e una collaborazione costanti.

Per competere con l’IA non basta incorporare le tecnologie di oggi, ma occorre anche essere preparati mentalmente e strutturalmente ad adattarsi ai progressi futuri. Ad esempio, le persone hanno iniziato a incorporare l’IA generativa (come ChatGPT) nella loro routine quotidiana, indipendentemente dal fatto che le aziende siano preparate o disposte ad abbracciarne l’uso.

Terzo, integrate l’IA nel vostro modello operativo. Come hanno dimostrato i miei colleghi Marco Iansiti e Karim R. Lakhani, la struttura di un’organizzazione rispecchia l’architettura dei sistemi tecnologici al suo interno, e viceversa. Se i sistemi tecnologici sono statici, la vostra organizzazione sarà statica, ma se sono flessibili, l’organizzazione sarà flessibile. Questa strategia ha avuto successo in Amazon. Secondo Iansiti e Lakhani, l’azienda aveva problemi a sostenere la propria crescita e la sua infrastruttura software stava “cedendo sotto le pressioni”. Così Jeff Bezos scrisse un promemoria ai dipendenti annunciando che tutti i team avrebbero dovuto instradare i loro dati attraverso le “interfacce di programmazione delle applicazioni” (API), che consentono a vari tipi di software di comunicare e condividere i dati utilizzando protocolli prestabiliti: chi non l’avesse fatto sarebbe stato licenziato. Si trattava di un tentativo di rompere l’inerzia all’interno dei sistemi tecnologici di Amazon e ha funzionato, smantellando i silos di dati, aumentando la collaborazione e contribuendo a costruire il modello operativo basato su software e dati che vediamo oggi.

Anche se certo non volete ricorrere a un ultimatum simile, dovreste pensare a come l’introduzione dell’IA possa – e debba – cambiare in meglio le vostre operazioni.

 

2

Come possiamo garantire maggiore trasparenza nel modo in cui l’IA prende le decisioni?

I leader devono riconoscere che non è sempre possibile sapere come i sistemi di IA prendono le decisioni. Alcune delle caratteristiche che le consentono di elaborare rapidamente enormi quantità di dati e di svolgere determinate attività in modo più accurato o efficiente rispetto agli esseri umani possono anche renderla una scatola nera: non possiamo vedere come è stato prodotto l’output. Tuttavia, noi possiamo tutti contribuire ad aumentare la trasparenza e la responsabilità nei processi decisionali dell’IA in due modi:

riconoscere che l’IA è invisibile e imperscrutabile ed essere trasparenti nel presentare e utilizzarne i sistemi. Callen Anthony, Beth A. Bechky e Anne-Laure Fayard identificano l’invisibilità e l’imperscrutabilità come caratteristiche fondamentali che differenziano l’IA dalle tecnologie precedenti. È invisibile perché spesso funziona sulla base di altre tecnologie o piattaforme senza che gli utenti ne siano consapevoli; per ogni Siri o Alexa che le persone capiscono essere un’IA, ci sono molte tecnologie, come ad esempio i freni antibloccaggio, che contengono sistemi di intelligenza artificiale non visibili. È imperscrutabile perché, anche per gli sviluppatori di IA, è spesso impossibile capire come un modello raggiunga un risultato, o persino identificare tutti i dati che utilizza per arrivarci – buoni o cattivi che siano.

Poiché le IA si basano su insiemi di dati progressivamente più grandi, questo diventa sempre più vero. Si pensi ai modelli linguistici di grandi dimensioni (LLM) come ChatGPT di OpenAI o Bing di Microsoft. L’LLM di OpenAI è stato addestrato utilizzando 175 miliardi di parametri ed è stato costruito per prevedere la probabilità che qualcosa si verifichi (un carattere, una parola o una stringa di parole, o anche un’immagine o un cambio di tono di voce) in base al contesto precedente o circostante. La funzione di correzione automatica del telefono è un esempio dell’accuratezza – e dell’imprecisione – di tali previsioni, ma non è solo la dimensione dei dati di addestramento. Molti algoritmi di IA, infatti, sono anche auto apprendenti; continuano a perfezionare i loro poteri predittivi man mano che ricevono più dati e feedback dagli utenti, aggiungendo nuovi parametri lungo il percorso.

Le IA hanno spesso ampie capacità grazie all’invisibilità e all’imperscrutabilità, ovvero alla loro capacità di lavorare in background e di trovare schemi che sfuggono alla nostra comprensione. Attualmente, non c’è modo di sbirciare all’interno di uno strumento di IA e di garantire che il sistema produca risultati accurati o corretti. Dobbiamo riconoscere che una certa opacità è un costo dell’utilizzo di questi potenti sistemi: di conseguenza i leader dovrebbero esercitare un’attenta valutazione nel determinare quando e come è appropriato utilizzare l’IA e dovrebbero documentare quando e come l’IA viene utilizzata.

In questo modo le persone sapranno che una decisione basata sull’IA è stata valutata con un adeguato livello di scetticismo, compresi i suoi potenziali rischi o difetti.

Dare priorità alla spiegazione come obiettivo centrale della progettazione. Il documento di ricerca “Artificial Intelligence and the Future of Work”, redatto dagli scienziati del MIT, osserva che i modelli di IA possono diventare più trasparenti attraverso pratiche come l’evidenziazione di aree specifiche nei dati che contribuiscono alla produzione dell’IA, la costruzione di modelli più interpretabili e lo sviluppo di algoritmi che possono essere utilizzati per verificare il funzionamento di un modello diverso. Analogamente, Timnit Gebru, scienziato informatico di spicco nel campo dell’IA, e i suoi colleghi Emily Bender, Angelina McMillan-Major e Margaret Mitchell (accreditata come “Shmargaret Shmitchell”) sostengono che pratiche come le analisi preliminari, che spingono gli sviluppatori a considerare sia i rischi del progetto sia le potenziali alternative ai piani attuali, possono aumentare la trasparenza delle tecnologie future. Facendo eco a questo punto, nel marzo del 2023, gli imprenditori tecnologici Steve Wozniak ed Elon Musk, insieme ai dipendenti di Google e Microsoft, hanno firmato una lettera in cui chiedono che lo sviluppo dell’IA sia più trasparente e interpretabile.

 

3

Come possiamo erigere delle barriere intorno ai LLM in modo che le loro risposte siano veritiere e coerenti con l’immagine del marchio che vogliamo proiettare?

Gli LLM comportano diversi rischi seri. Possono:

- perpetuare pregiudizi dannosi utilizzando stereotipi negativi o minimizzando i punti di vista delle minoranze;

- diffondere disinformazione ripetendo falsità o inventando fatti e citazioni;

- violare la privacy utilizzando i dati senza il consenso delle persone;

- causare violazioni della sicurezza se vengono utilizzati per generare e-mail di phishing o altri attacchi informatici;

- danneggiare l’ambiente a causa delle notevoli risorse computazionali necessarie per addestrare ed eseguire questi strumenti.

La cura e la documentazione dei dati sono due modi per ridurre questi rischi e garantire che gli LLM forniscano risposte più coerenti con l’immagine del vostro marchio e non dannose per esso.

Adattare i dati per ottenere risultati appropriati. Gli LLM vengono spesso sviluppati utilizzando dati basati su Internet che contengono miliardi di parole. Tuttavia, le fonti comuni di questi dati, come Reddit e Wikipedia, non dispongono di meccanismi sufficienti per verificare l’accuratezza, la correttezza o l’adeguatezza.

Si consideri quali prospettive sono rappresentate in questi siti e quali sono escluse. Ad esempio, il 67% dei contributori di Reddit sono uomini; su Wikipedia, invece, l’84% dei collaboratori è di sesso maschile, con una scarsa rappresentanza di popolazioni emarginate.

Se invece si costruisce un LLM attorno a fonti più accuratamente vagliate, si riduce il rischio di risposte inappropriate o dannose. Bender e colleghi raccomandano di curare i set di dati per la formazione “attraverso un processo ponderato di decisione di cosa inserire, piuttosto che puntare esclusivamente alla scala e cercare di eliminare a casaccio... i dati “pericolosi”, “incomprensibili” o “altrimenti cattivi”“. Sebbene ciò richieda più tempo e risorse, esemplifica l’adagio secondo cui un grammo di prevenzione vale un chilo di cura.

Documentare i dati. Ci saranno sicuramente organizzazioni che vogliono sfruttare gli LLM, ma non hanno le risorse per addestrare un modello con un set di dati curato. In situazioni come queste, la documentazione è fondamentale perché consente alle aziende di ottenere dagli sviluppatori di un modello non proprietario un contesto su quali set di dati utilizza e sulle distorsioni che possono contenere, oltre a fornire indicazioni su come il software costruito sul modello possa essere utilizzato in modo appropriato. Questa pratica è analoga alle informazioni standardizzate utilizzate in medicina per indicare quali studi sono stati utilizzati per formulare raccomandazioni sanitarie.

Gli sviluppatori di IA dovrebbero dare priorità alla documentazione per consentire un uso sicuro e trasparente dei loro modelli. Le persone o le organizzazioni che sperimentano un modello devono cercare questa documentazione per capire i suoi rischi e se è in linea con l’immagine del marchio desiderata.

 

4

Come possiamo garantire che il set di dati che utilizziamo per addestrare i modelli di IA sia rappresentativo e non includa pregiudizi dannosi?

 

La sanificazione dei set di dati è una sfida che la vostra organizzazione può aiutare a superare dando priorità alla trasparenza e all’equità rispetto alle dimensioni del modello e rappresentando popolazioni diverse nella cura dei dati.

Innanzitutto considerate i compromessi che fate. Le aziende tecnologiche hanno puntato su sistemi di intelligenza artificiale più grandi perché tendono a essere più efficaci in determinati compiti, come sostenere conversazioni che sembrano umane. Tuttavia, se un modello è troppo grande per essere compreso appieno, è impossibile liberarlo da potenziali pregiudizi. Per combattere completamente i pregiudizi, gli sviluppatori devono essere in grado di comprendere e documentare i rischi inerenti a un set di dati, il che potrebbe significare utilizzarne uno più piccolo.

In secondo luogo, se team eterogenei, tra cui membri di popolazioni sottorappresentate, raccolgono e producono i dati utilizzati per addestrare i modelli, si avranno maggiori possibilità di garantire che in essi siano rappresentate persone con una varietà di prospettive e identità. Questa pratica aiuta anche a identificare i pregiudizi o i paraocchi non riconosciuti nei dati.

L’IA sarà affidabile solo quando funzionerà in modo equo; questo accadrà solo se daremo priorità alla diversificazione dei dati e dei team di sviluppo e se documenteremo chiaramente come l’IA è stata progettata a fini di equità.

 

5

Quali sono i rischi potenziali di violazione della privacy con l’IA?

 

L’IA che utilizza dati sensibili di dipendenti e clienti è vulnerabile ai malintenzionati. Per combattere questi rischi, le organizzazioni dovrebbero imparare il più possibile su come è stata sviluppata l’IA e poi decidere se è opportuno utilizzare dati sicuri in quell’ambito. Dovrebbero inoltre mantenere aggiornati i sistemi tecnologici e stanziare risorse di bilancio per mantenere sicuro il software, il che richiede un’azione continua poiché una piccola vulnerabilità può lasciare un’intera organizzazione soggetta alle violazioni.

Le innovazioni della blockchain possono aiutare su questo fronte. Una blockchain è un registro sicuro e distribuito che registra le transazioni di dati e viene attualmente utilizzata per applicazioni come la creazione di sistemi di pagamento (per non parlare delle criptovalute).

Per quanto riguarda le vostre operazioni più in generale, prendete in considerazione il quadro di riferimento sulla privacy by design (PbD) dell’ex commissario per l’informazione e la privacy dell’Ontario Ann Cavoukian, che raccomanda alle organizzazioni di adottare sette principi fondamentali:

 

1.              Essere proattivi, non reattivi – prevenire, non rimediare.

2.              Guidare con la privacy come impostazione predefinita.

3.              Incorporare la privacy nella progettazione.

4.              Mantenere la piena funzionalità, compresa la privacy e la sicurezza.

5.              Garantire la sicurezza end-to-end.

6.              Mantenere visibilità e trasparenza.

7.              Rispettare la privacy degli utenti – mantenere i sistemi incentrati sull’utente.

 

L’integrazione dei principi della PbD nelle vostre attività non richiede solo l’assunzione di personale addetto alla privacy o la creazione di una divisione per la privacy. Tutte le persone dell’organizzazione devono essere attente alle preoccupazioni dei clienti e dei dipendenti su questi temi. La privacy non è un pensiero secondario, ma deve essere al centro delle operazioni digitali e tutti devono lavorare per proteggerla.

 

6

Come possiamo incoraggiare i dipendenti a utilizzare l’IA per scopi di produttività e non semplicemente per prendere scorciatoie?

 

Anche con l’avvento degli LLM, la tecnologia dell’IA non è ancora in grado di svolgere la vertiginosa gamma di compiti possibili agli esseri umani e ci sono molte cose che fa peggio di una persona media. Per utilizzare efficacemente ogni nuovo strumento è necessario comprenderne lo scopo.

Pensiamo ad esempio a ChatGPT. Imparando a conoscere gli schemi linguistici, è diventato così bravo a prevedere quali parole dovrebbero seguirne altre che può produrre risposte testuali apparentemente sofisticate a domande complicate. Tuttavia, c’è un limite alla qualità di questi risultati, perché essere bravi a indovinare combinazioni plausibili di parole e frasi è diverso dal comprenderne il senso. Così ChatGPT può produrre una poesia nello stile di Shakespeare perché ha imparato gli schemi particolari dei suoi drammi e delle sue poesie, ma non può produrre la visione originale della condizione umana che informa la sua opera.

Al contrario, l’intelligenza artificiale può essere migliore e più efficiente degli esseri umani nel fare previsioni, perché è in grado di elaborare molto più rapidamente grandi quantità di dati. Tra gli esempi si possono citare la previsione di demenza precoce dai modelli di linguaggio, l’individuazione di tumori cancerosi indistinguibili all’occhio umano e la pianificazione di percorsi più sicuri nei campi di battaglia.

I dipendenti dovrebbero quindi essere incoraggiati a valutare se i punti di forza dell’IA sono all’altezza di un compito e a procedere di conseguenza. Se avete bisogno di elaborare rapidamente molte informazioni, l’intelligenza artificiale è in grado di farlo. Se avete bisogno di un mucchio di nuove idee, può generarle. Anche se si deve prendere una decisione difficile, l’intelligenza artificiale può offrire consigli, a condizione che sia stata addestrata su dati pertinenti.

Non si dovrebbe, però, usare l’IA per creare prodotti di lavoro significativi senza la supervisione umana. Se dovete scrivere una quantità di documenti dal contenuto molto simile, l’IA può essere un utile generatore di quello che da tempo viene definito un “calderone” di materiali. Siate consapevoli che i suoi risultati derivano dai set di dati e dagli algoritmi e non sono necessariamente buoni o accurati.

 

7

Quanto dobbiamo preoccuparci che l’IA sostituisca posti di lavoro?

 

Ogni rivoluzione tecnologica ha creato più posti di lavoro di quanti ne abbia distrutti. L’automobile ha messo fuori mercato i conducenti di cavalli e calessi, ma ha creato nuovi posti di lavoro nella costruzione e riparazione di automobili, nella gestione di stazioni di servizio e altro ancora. La novità delle tecnologie IA rende facile temere che esse sostituiscano gli esseri umani nella forza lavoro. Dovremmo invece considerarle come un modo per aumentare le prestazioni umane; ad esempio, aziende come Collective[i]

hanno sviluppato sistemi di intelligenza artificiale che analizzano i dati per produrre rapidamente previsioni di vendita estremamente accurate con un lavoro che, tradizionalmente, richiedeva giorni e settimane. Ma nessun venditore sta perdendo il lavoro; al contrario, hanno più tempo per concentrarsi su aspetti più importanti della loro attività come costruire relazioni, gestire e vendere davvero.

Allo stesso modo, servizi come Codex di OpenAI possono autogenerare codici di programmazione per scopi di base. Questo non sostituisce i programmatori, ma permette loro di scrivere codici in modo più efficiente e di automatizzare compiti ripetitivi come i test, in modo da poter lavorare su questioni di livello superiore come l’architettura dei sistemi, la modellazione del dominio e l’esperienza utente.

Gli effetti a lungo termine sui posti di lavoro sono complessi e disomogenei, e possono verificarsi periodi di distruzione e spostamento di posti di lavoro in determinati settori o regioni. Per garantire che i benefici del progresso tecnologico siano ampiamente condivisi, è fondamentale investire nell’istruzione e nello sviluppo della forza lavoro per aiutare le persone ad adattarsi al nuovo mercato del lavoro.

Gli individui e le organizzazioni dovrebbero concentrarsi sull’aggiornamento e la scalabilità per prepararsi a sfruttare al meglio le nuove tecnologie. L’intelligenza artificiale e i robot non sostituiranno presto gli esseri umani ma la realtà più probabile è che le persone con una mentalità digitale sostituiranno quelle che ne sono prive.

 

8

Come può la mia organizzazione garantire che l’IA che sviluppiamo o utilizziamo non danneggi individui o gruppi o violi i diritti umani?

 

I danni delle distorsioni dell’IA sono stati ampiamente documentati. Nel loro documento fondamentale del 2018 “Gender Shades”, Joy Buolamwini e Timnit Gebru hanno dimostrato che le tecnologie di riconoscimento facciale più diffuse, offerte da aziende come IBM e Microsoft, sono quasi perfette nell’identificare i volti bianchi e maschili, ma sbagliano l’identificazione dei volti femminili neri nel 35% dei casi. Il riconoscimento facciale può essere usato per sbloccare il telefono, ma viene anche utilizzato per monitorare gli avventori del Madison Square Garden, sorvegliare i manifestanti e intercettare i sospetti nelle indagini della polizia. Man mano che l’IA cresce di potenza e diventa sempre più integrata nella nostra vita quotidiana, cresce esponenzialmente anche il suo potenziale di danno. Ecco le strategie per salvaguardare l’intelligenza artificiale.

Rallentare e documentare lo sviluppo dell’IA. Per prevenire i danni dell’IA è necessario spostare l’attenzione dal rapido sviluppo e dalla diffusione di un’IA sempre più potente alla garanzia che sia sicura prima di essere rilasciata.

Anche la trasparenza è fondamentale. All’inizio di questo articolo ho spiegato come descrivere chiaramente i set di dati utilizzati nell’IA e i potenziali pregiudizi al loro interno aiuti a ridurre i danni. Quando gli algoritmi sono condivisi apertamente, le organizzazioni e gli individui possono analizzare e comprendere meglio i potenziali rischi dei nuovi strumenti prima di utilizzarli.

Stabilire e proteggere i guardiani dell’etica dell’IA. La domanda su chi garantirà un’IA sicura e responsabile è attualmente senza risposta. Google, ad esempio, impiega un team per l’etica dell’IA, ma nel 2020 ha licenziato Gebru dopo che aveva cercato di pubblicare un documento che metteva in guardia dai rischi della costruzione di modelli linguistici sempre più grandi. La sua uscita da Google ha sollevato la questione se gli sviluppatori tecnologici siano in grado, o per lo meno siano incentivati, ad agire come difensori civici per le proprie tecnologie e organizzazioni. Più di recente, un intero team di Microsoft dedicato all’etica è stato licenziato. Nonostante questo, molti nel settore riconoscono i rischi e, come già detto, anche le icone del settore tecnologico hanno chiesto ai politici di collaborare con i tecnologi per creare sistemi di regolamentazione dello sviluppo dell’IA.

Che provenga da un Governo, dall’industria tecnologica o da un altro sistema indipendente, l’istituzione e la protezione di organi di controllo è fondamentale per proteggere dai danni dell’IA.

Capire dove si orienta la regolamentazione. Anche se il panorama dell’IA cambia in fretta, i Governi stanno cercando di regolamentarlo. Negli Stati Uniti, l’anno scorso sono state approvate 21 proposte di legge relative all’IA. Tra quelle degne di nota figurano una disposizione dell’Alabama che delinea le linee guida per l’utilizzo della tecnologia di riconoscimento facciale nei procedimenti penali e la legislazione che ha creato una Divisione dell’intelligenza artificiale del Vermont per esaminare tutta l’IA utilizzata dal governo statale e proporre un codice etico sull’IA. Più di recente, il governo federale degli Stati Uniti si è mosso per emanare azioni esecutive sull’IA, che saranno vagliate nel tempo.

Anche l’Unione Europea sta prendendo in considerazione una legislazione – l’Artificial Intelligence Act – che include un sistema di classificazione che determina il livello di rischio che l’IA potrebbe rappresentare per la salute e la sicurezza o i diritti fondamentali di una persona. L’Italia per un certo periodo ha sospeso ChatGPT. L’Unione Africana ha istituito un gruppo di lavoro sull’IA e la Commissione africana per i diritti umani e dei popoli ha adottato una risoluzione per affrontare le implicazioni per i diritti umani, di IA, robotica e altre tecnologie nuove ed emergenti in Africa.

La Cina ha approvato nel 2021 una legge sulla protezione dei dati che stabilisce le norme sul consenso degli utenti per la raccolta dei dati e ha recentemente approvato una politica unica che regolamenta le “tecnologie di sintesi profonda” utilizzate per i cosiddetti “falsi profondi”. Il governo britannico ha pubblicato un approccio che applica le linee guida normative esistenti alle nuove tecnologie di IA.

 

MILIARDI DI PERSONE in tutto il mondo stanno scoprendo la promessa dell’IA attraverso gli esperimenti con ChatGPT, Bing, Midjourney e altri nuovi strumenti. Ogni azienda dovrà confrontarsi con le domande su come queste tecnologie emergenti si applicheranno a loro e ai loro settori. Per alcune significherà una svolta significativa nei loro modelli operativi; per altre, un’opportunità per scalare e ampliare le loro offerte. Ma tutti devono valutare la propria disponibilità a impiegare l’IA in modo responsabile, senza arrecare danni ai propri stakeholder e al mondo in generale.

 

Tsedal Neeley è professoressa di Business Administration e senior Associate Dean of Faculty and Research alla Harvard Business School. È coautrice del libro The Digital Mindset: What It Really Takes to Thrive in the Age of data, algorithms, and AI e autrice del libro Remote Work Revolution: Succeeding from Anywhere.

 

 

In quali valori crede l’industria tecnologica?

Sei esperti ci parlano dell’etica che guida lo sviluppo dell’IA oggi e delle sfide che dovremo affrontare domani

Dagny Dukach

 

LA MAGGIOR PARTE delle persone cerca di fare la cosa giusta il più delle volte. Ma il termine “giusto” è relativo, ovviamente. Questo è stato particolarmente evidente nel recente boom dell’IA generativa, salutata da alcuni come potenzialmente salvifica per il mondo e da altri come letteralmente apocalittica.

Mentre l’industria tecnologica globale espande rapidamente le frontiere di queste nuove tecnologie, noi di HBR ci siamo posti diverse domande: Quali valori guidano le decisioni dei leader tecnologici? Quali ideologie, aspettative culturali e mentalità informano le loro priorità? E quali rischi comportano questi quadri etici rispetto alle modalità di sviluppo dell’IA?

Abbiamo chiesto a sei esperti della storia dell’industria tecnologica e dell’etica dell’IA di rispondere a queste domande. Le loro risposte hanno fatto luce sulla cultura e sulla mentalità che guidano il processo decisionale nel mondo tecnologico – e su ciò che l’etica dei leader di oggi può dirci sulle opportunità e le minacce che dovremo affrontare domani. Abbiamo organizzato le loro risposte in tre sezioni: una sulla cultura della velocità nel settore; un’altra sul motivo per cui i tecnologi non riescono a considerare il contesto più ampio in cui si inseriscono i loro prodotti; e l’ultima sul fatto che una sana riflessione sui limiti si verifica di norma soltanto ex-post (e perché questo deve cambiare).

 

 

La glorificazione della velocità

 

Margaret O’Mara è professoressa di Storia e titolare della cattedra di Storia americana all’Università di Washington.

 

“Muoversi velocemente e rompere le cose” è stato un valore che ha animato la Silicon Valley per generazioni. Questo atteggiamento ha sostenuto lo sviluppo dell’home computing e dei videogiochi sulla scia della stagflazione alla fine degli anni Settanta; ha guidato gli investimenti di venture capital in piattaforme come Netscape, Yahoo ed eBay dopo la recessione dei primi anni Novanta; e ha definito l’esplosione dei software di ricerca, dei social media, della telefonia mobile e del cloud dopo la bolla delle Dotcom.

Oggi l’IA generativa è la nuova grande novità, e anche se i leader del settore mettono in guardia dai potenziali pericoli della tecnologia e invitano a una pausa di sei mesi sull’addestramento di sistemi di IA più avanzati, la stessa vecchia mentalità della Silicon Valley sembra riemergere.

Un forte e radicato bisogno di velocità e di crescita può ostacolare gli sforzi per mettere dei paletti adeguati. «Ho fatto questo per 50 anni», ha detto Eric Schmidt, ex amministratore delegato di Google all’inizio di aprile. «Non ho mai visto qualcosa accadere così velocemente».

Naturalmente, i tecnologi hanno nutrito preoccupazioni sui computer senzienti per più di mezzo secolo – e di robot padroni per molto più tempo ancora – e gli attuali modelli linguistici di grandi dimensioni dimostrano che la loro potenza di calcolo, e i dati disponibili su cui usarla, si stanno avvicinando più che mai all’intelligenza umana.

Tuttavia, a mio avviso, il pericolo maggiore non è la tecnologia, ma l’etica e gli imperativi di business che per tanto tempo hanno caratterizzato le persone che la costruiscono. Gli esseri umani che progettano gli strumenti di intelligenza artificiale sono fondamentalmente fallibili e questo ha portato ad algoritmi distorti, sistemi di sicurezza vulnerabili e campagne di disinformazione letali.

Nel mondo della tecnologia, la velocità non è una novità. Ma i sistemi di intelligenza artificiale generativa stanno procedendo a razzo, con una rapidità e una potenza tali da lasciare sbigottiti anche gli osservatori più esperti. Solo il tempo ci dirà quanto rischiamo di andare a sbattere se ci muoviamo così velocemente.

 

 

 

Dan Wadhwani è professore di Imprenditorialità clinica presso la Marshall School of Business della University of Southern California.

 

Il rapido sviluppo dell’intelligenza artificiale sembra essere guidato, in larga misura, dal fatalismo tecnologico: temendo di rimanere indietro, le aziende rilasciano modelli sempre più potenti con un atteggiamento sempre più timido nel garantire che questi strumenti siano integrati in modo produttivo nella società.

Se da un lato individuare casi d’uso commercialmente validi per una nuova tecnologia non è una cattiva idea, dall’altro un’attenzione esclusiva a tenere il passo della concorrenza può rendere i leader ciechi di fronte alle ripercussioni sociali e alle conseguenze indesiderate.

Ad esempio, i social media, che promettevano di connettere il mondo, hanno anche causato danni di ogni tipo, dalle fake news ai problemi di salute mentale, fino ai problemi di sviluppo degli adolescenti.

L’intelligenza artificiale ha il potenziale per portare benefici alla società in modi straordinari, ma comporta anche grandi rischi, molti dei quali probabilmente ancora sconosciuti. Le aziende tecnologiche hanno cercato di anticipare alcuni potenziali aspetti negativi, ma si sono concentrate soprattutto sulla mitigazione di rischi ristretti e limitati, come i problemi di proprietà intellettuale o la responsabilità per i contenuti dannosi creati con i loro modelli attraverso specifiche regole algoritmiche. Inoltre, la velocità con cui l’IA opera e la mancanza di visibilità in tempo reale sui processi con cui vengono generati i risultati rappresentano un tipo di sfida completamente nuovo.

Un tempo eccentrico e controcorrente, il settore tecnologico è diventato una parte importante della società, della cultura e della politica contemporanee. Ma molti dei suoi leader sembrano ancora abbracciare, forse volontariamente, una visione eccessivamente ingenua del loro potere; è ora che crescano. Possono riconoscere e gestire i rischi imprevedibili posti dall’IA – oppure commettere errori ancora più costosi.

 

 

 

 

L’ignoranza di un contesto più ampio

 

Ming-Hui Huang è professore di Gestione delle informazioni presso la National Taiwan University e direttore del Journal of Service Research.

 

Tra gli esperti di marketing, il concetto di identificare i clienti target e soddisfare in modo proattivo le loro esigenze è ben consolidato. Ma nella corsa all’intelligenza artificiale, molte aziende non sono riuscite ad allineare gli obiettivi degli sviluppatori con quelli dei clienti finali, facendo cadere in secondo piano le considerazioni etiche.

Ad esempio, grazie alla competizione per lo sviluppo di modelli linguistici di grandi dimensioni, sia OpenAI che Google hanno creato strumenti di conversazione (rispettivamente ChatGPT e Bard) che non sempre generano contenuti utili e innocui. Infatti, questi modelli spesso replicano i pregiudizi umani incorporati nelle fonti di dati online su cui sono stati addestrati e talvolta, poiché si basano su tutti i dati testuali disponibili su Internet anziché privilegiare l’accuratezza, offrono risposte fuorvianti o semplicemente sbagliate.

Qual è la soluzione? Gli sviluppatori di intelligenza artificiale devono costruire i loro strumenti in base alle priorità, alle esigenze e ai contesti delle persone che vi interagiscono. Se lo faranno, saranno costretti a prendere decisioni più etiche in ogni fase del processo e a costruire prodotti che non solo siano redditizi, ma che creino anche un valore reale per chi li utilizza.

 

 

Quinn Slobodian è professore di Storia delle idee presso il Wellesley College.

 

Cosa pensa l’intelligenza artificiale della propria etica? Ho deciso di chiederglielo direttamente e ciò che mi ha risposto è stato allo stesso tempo rivelatore e preoccupante. Ho iniziato chiedendo a ChatGPT cosa stia guidando la corsa all’intelligenza artificiale. Mi ha risposto che sono fondamentali la ricerca di “efficienza e produttività” e il “desiderio di creare più valore per gli azionisti e gli stakeholder”. Richiesta di approfondire, ha aggiunto motivazioni secondarie come il perseguimento dell’innovazione, la sicurezza e la competitività nazionale e la sostenibilità ambientale.

Non ho trovato sorprendente questa gerarchia. La corsa all’intelligenza artificiale è, nella sua essenza, guidata dal profitto: ovviamente c’è più di un modo per fare profitti. Ho quindi chiesto a ChatGPT come pensa che gli sviluppatori di IA prendano decisioni in merito a questioni sociali o etiche. Ha risposto che un’azienda può consultare esperti, monitorare l’impatto, sviluppare principi etici o istituire comitati di controllo dell’etica. L’uso della parola “può” mi ha colpito, così come l’attenzione esclusiva all’autoregolamentazione, priva di qualsiasi riconoscimento del fatto che una società o uno Stato possano indirizzare il processo decisionale di un’azienda. Certo, un’azienda può fare una qualsiasi di queste cose – ma se non è obbligata dalla legge, o costretta dalla minaccia di un contenzioso o di un danno alla reputazione, lo farà? O si atterrà semplicemente alla prima direttiva dell’IA di massimizzare il valore per gli azionisti?

La saggezza collettiva di una comunità o una legislazione legittimata democraticamente non sembrano esistere per il mio interlocutore IA. Come i suoi creatori, ChatGPT coltiva la fantasia di essere un “cervello in una vasca”, beatamente inconsapevole della sua dipendenza da strutture più grandi – fino a quando non arriverà il momento in cui dovrà inevitabilmente essere salvata.

 

 

 

La mancanza di limiti

 

Meredith Broussard è professoressa associata presso l’Arthur L. Carter Journalism Institute della New York University.

 

“Non possiamo continuare a regolamentare l’IA come se [...] funzionasse. La maggior parte degli interventi politici parte dal presupposto che la tecnologia sia all’altezza delle prestazioni che promette, ma i politici e gli studiosi devono smetterla di farsi condizionare dalle clamorose dichiarazioni delle aziende e dovrebbero invece esaminarle con più attenzione”.

 

Così avvertiva l’esperta di informatica e algoritmi Inioluwa Deborah Raji nel 2021. Molti leader tecnologici si sono avvicinati all’idea che i loro prodotti debbano essere “giusti” o “etici”, ma non riescono ancora a condurre le verifiche necessarie per garantire effettivamente tali risultati. Per costruire una tecnologia che faccia la cosa giusta, dobbiamo sapere cosa fa e come lo fa.

Ciò significa che i leader devono lavorare per identificare i pregiudizi presenti nei loro prodotti nei confronti di diversi gruppi, siano essi basati su razza, sesso, abilità o altri fattori identitari. Ad esempio, se il vostro strumento di riconoscimento facciale ha costantemente risultati migliori con persone appartenenti a determinati gruppi razziali, potreste avere un problema di pregiudizio algoritmico. Gli sviluppatori devono testare (e ritestare) costantemente i loro sistemi di intelligenza artificiale ed essere pronti a modificare il codice o addirittura a cancellare completamente un progetto quando si riscontrano dei problemi.

Poiché questi pregiudizi sono spesso inconsci, la proattività è imperativa. Oltre alla semplice revisione del prodotto finale, i leader tecnologici devono verificare il codice, i dati e i modelli da utilizzare nei sistemi di IA prima che vengano rilasciati. L’amministrazione Biden ha già proposto una legge che imporrebbe questo tipo di verifica e probabilmente normative simili saranno adottate in tutto il mondo. Questa non è conformità, bensì lavorare per assicurarci che la nostra tecnologia faccia quello che diciamo di fare e raggiunga effettivamente i risultati di equità che diciamo di volere.

 

 

Joy Buolamwini è fondatrice della Algorithmic Justice League ed ex ricercatrice sui pregiudizi dell’intelligenza artificiale al MIT.

 

L’industria tecnologica è motivata dal profitto, non dall’interesse pubblico, e quindi non possiamo aspettarci che si autoregoli. L’incessante competizione per essere i primi, i migliori, per conquistare quote di mercato avrà un grave costo per la società: la perdita di posti di lavoro; i media sintetici che minano i nostri ecosistemi informativi; i risultati dell’IA che rafforzano stereotipi dannosi e fanno proliferare contenuti odiosi e tossici; e molto altro ancora.

In particolare, le pratiche relative ai dati alla base dell’attuale corsa all’IA dimostrano quanto sia necessario un controllo etico. Le aziende stanno costruendo prodotti su una base di dati che sono stati raccolti senza consenso e con totale disprezzo per la privacy individuale. Nel 2020 Meta ha accettato di pagare un risarcimento di 650 milioni di dollari a causa dell’uso di dati personali per addestrare il suo sistema di riconoscimento facciale, mentre ChatGPT è già stato vietatoin Italia per problemi di privacy.

Se le aziende continuano a operare in un ambiente che rifugge la trasparenza e la responsabilità, sospetto che seguiranno altri patteggiamenti, multe e divieti. Naturalmente, finché non ci sarà una legislazione completa che regoli lo sviluppo, la diffusione e la supervisione dei sistemi di IA in tutto il mondo, le aziende che cercheranno di utilizzarli in modo da rispettare i diritti umani rimarranno svantaggiate. Ma sono ottimista sia per quanto riguarda le proposte legislative come l’Algorithmic Accountability Act (reintrodotto alla Camera e al Senato degli Stati Uniti nell’aprile del 2022), sia per il crescente movimento guidato dai consumatori per richiedere la prova del consenso per la raccolta dei dati, cancellare i sistemi creati senza consenso e proteggere le persone dallo sfruttamento dell’IA.

Abbiamo l’opportunità di fermare la normalizzazione del saccheggio dei dati e di allontanare la traiettoria dello sviluppo dell’IA da queste pratiche di sfruttamento. Abbiamo il potere di dire no e l’ingegno per costruire alternative migliori. I dati sono un destino solo se non interveniamo. 

 

Dagny Dukach è ex redattore associato di Harvard Business Review.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

0 / 3

Free articles left

Abbonati!