TECNOLOGIA
Brian Spisak, Louis B. Rosenberg, Max Beilby
Agosto 2023
Boris SV/Getty Images
Che la si ami o la si detesti, la rapida espansione dell’IA non accennerà a rallentare. Ma eventuali errori possono danneggiare rapidamente la reputazione di un marchio: basta chiedere a Tay, il primo chatbot di Microsoft. Nella corsa tecnologica, tutti i leader temono di essere lasciati indietro se rallentano mentre gli altri non lo fanno. È una situazione in cui la cooperazione sembra rischiosa e la defezione allettante. Questo “dilemma del prigioniero” (come viene chiamato nella teoria dei giochi) comporta dei rischi per pratiche di IA responsabili. I leader, dando priorità alla velocità di commercializzazione, stanno guidando l’attuale “corsa agli armamenti” dell’IA, in cui i principali attori aziendali stanno affrettando il rilascio dei loro prodotti, potenzialmente trascurando considerazioni critiche come le linee guida etiche, l’individuazione dei pregiudizi e le necessarie misure di sicurezza. Per fare un esempio, alcune delle principali aziende tecnologiche stanno licenziando i loro team dedicati all’etica dell’IA proprio nel momento in cui sono più necessarie azioni responsabili.
È anche importante riconoscere che la corsa a costruire l’IA va ben oltre gli sviluppatori di grandi modelli linguistici (LLM) come OpenAI, Google e Meta ma arriva a comprendere molte aziende che utilizzano gli LLM per supportare le proprie applicazioni personalizzate. Nel mondo dei servizi professionali, ad esempio, PwC ha annunciato che sta implementando chatbot IA per 4.000 dei suoi avvocati, distribuiti in 100 Paesi. Questi assistenti IA “aiuteranno gli avvocati nell’analisi dei contratti, nel lavoro di conformità normativa, nella due diligence e in altri servizi di consulenza legale”. La direzione di PwC sta anche valutando la possibilità di estendere questi chatbot alla propria attività fiscale. In totale, il gigante della consulenza ha intenzione di investire un miliardo di dollari nell’IA generativa, che è un potente strumento in grado di fornire un aumento delle prestazioni che cambia le carte in tavola.
In modo simile, KPMG ha lanciato il proprio assistente IA, chiamato KymChat, che aiuterà i dipendenti a trovare rapidamente gli esperti interni di tutta l’organizzazione, a coinvolgerli intorno alle opportunità in arrivo e a generare automaticamente proposte basate sulla corrispondenza tra i requisiti del progetto e i talenti disponibili. L’assistente IA “consentirà una migliore collaborazione tra i team e aiuterà i nuovi arrivati in azienda a sperimentare un contatto con le altre persone più fluido ed efficiente”.
Slack sta anche incorporando l’intelligenza artificiale generativa nello sviluppo di Slack GPT, un assistente IA progettato per aiutare i dipendenti a lavorare in modo più intelligente e semplificato. La piattaforma incorpora una serie di funzionalità, come realizzare riassunti di conversazioni e fornire assistenza alla scrittura, in modo tale da migliorare la produttività degli utenti.
Questi esempi sono solo la punta dell’iceberg. Presto centinaia di milioni di utenti di Microsoft 365 avranno accesso a Business Chat, un agente che si unisce all’utente nel suo lavoro, per dare un senso ai dati di Microsoft 365. I dipendenti possono chiedere all’assistente di svolgere le proprie mansioni in modo intelligente e senza fatica; potranno poi chiedere all’assistente di fare qualsiasi cosa, dai riepiloghi sullo stato di avanzamento dei lavori basato sulle trascrizioni delle riunioni e sulle comunicazioni via e-mail, all’identificazione di difetti nella strategia e all’elaborazione di soluzioni.
Questa rapida diffusione degli agenti IA è il motivo per cui Arvind Krishna, CEO di IBM, ha recentemente scritto che “le persone che collaborano con l’IA avranno la capacità di imprimere un effetto di trasformazione sulla nostra economia e società... È ora di abbracciare questa partnership e di preparare la nostra forza lavoro a tutto ciò che l’IA ha da offrire”. In poche parole, le organizzazioni stanno registrando una crescita esponenziale nell’installazione di strumenti basati sull’IA e le aziende che non si adeguano rischiano di rimanere indietro.
Rischi dell’IA nel lavoro
Purtroppo, rimanere competitivi comporta anche rischi significativi sia per i dipendenti che per i datori di lavoro. Ad esempio, una pubblicazione dell’UNESCO del 2022 sugli “effetti dell’IA sulla vita lavorativa delle donne” riporta che l’IA nel processo di assunzione, ad esempio, sta escludendo le donne dalle promozioni. Uno studio citato nel rapporto, che comprendeva 21 esperimenti con oltre 60.000 annunci di lavoro mirati, ha rilevato che “impostando il genere dell’utente su ‘Femmina’ si è ottenuto un numero inferiore di annunci relativi a lavori ad alta retribuzione rispetto agli utenti che hanno selezionato ‘Maschio’ come genere”. Anche se questi pregiudizi dell’intelligenza artificiale nel reclutamento e nell’assunzione sono ben noti, non scompariranno presto. Come si legge ancora nel rapporto UNESCO, “uno studio del 2021 ha mostrato prove di inserzioni di lavoro distorte in base al genere su Facebook, anche quando gli inserzionisti volevano un pubblico equilibrato dal punto di vista del genere”. Spesso si tratta di dati distorti che continueranno a infettare gli strumenti di IA e a minacciare fattori chiave della forza lavoro come la diversità, l’equità e l’inclusione.
Le pratiche occupazionali discriminatorie sono solo uno dei tanti rischi legali a cui l’IA generativa espone le organizzazioni. Ad esempio, OpenAI sta affrontando la sua prima causa per diffamazione per accuse che ChatGPT abbia realizzato una disinformazione dannosa. In particolare, il sistema avrebbe generato un riassunto di un caso giudiziario reale inserendo accuse inventate di appropriazione indebita contro un conduttore radiofonico in Georgia. Ci troviamo di fronte a un esempio che evidenzia il possibile impatto negativo sulle organizzazioni dalla creazione e dalla condivisione di informazioni generate dall’intelligenza artificiale, e anche le preoccupazioni legate alla creazione di contenuti falsi e diffamatori da parte dei LLM, con conseguenti danni alla reputazione, perdita di credibilità, diminuzione della fiducia dei clienti e gravi ripercussioni legali.
Oltre alle preoccupazioni legate alla diffamazione, vi sono rischi associati a violazioni del copyright e della proprietà intellettuale. Sono emersi diversi casi legali di alto profilo in cui gli sviluppatori di strumenti di IA generativa sono stati citati in giudizio per il presunto uso improprio di contenuti concessi in licenza. La presenza di violazioni del copyright e della proprietà intellettuale, insieme alle implicazioni legali di tali violazioni, pone rischi significativi per le organizzazioni che utilizzano prodotti di IA generativa. Le organizzazioni possono utilizzare impropriamente i contenuti concessi in licenza attraverso l’IA generativa impegnandosi inconsapevolmente in attività quali il plagio, gli adattamenti non autorizzati, l’uso commerciale senza licenza e l’uso improprio di contenuti Creative Commons o open-source, esponendosi a potenziali conseguenze legali.
La diffusione su larga scala dell’IA amplifica anche i rischi di attacchi informatici. Il timore degli esperti di cybersicurezza è che l’IA generativa possa essere utilizzata per identificare e sfruttare le vulnerabilità all’interno dei sistemi informativi aziendali, data la capacità dei LLM di automatizzare la codifica e il rilevamento dei bug che potrebbero essere utilizzati da soggetti malintenzionati per superare le barriere di sicurezza. C’è anche il timore che i dipendenti possano accidentalmente condividere dati sensibili con fornitori di IA terzi. Un esempio significativo riguarda il personale Samsung che ha involontariamente divulgato segreti commerciali attraverso ChatGPT mentre utilizzava l’LLM per esaminare il codice sorgente. Non avendo optato per la condivisione dei dati, le informazioni riservate sono state inavvertitamente fornite a OpenAI; anche se Samsung e altri stanno adottando misure per limitare l’uso di strumenti di IA di terze parti sui dispositivi di proprietà dell’azienda, c’è ancora il timore che i dipendenti possano far trapelare informazioni attraverso l’uso di tali sistemi sui dispositivi personali.
Oltre a questi rischi, le aziende dovranno presto districarsi tra normative nascenti, molto variegate e talvolta alquanto oscure. Chiunque assuma a New York, per esempio, dovrà assicurarsi che la propria tecnologia di reclutamento e assunzione alimentata dall’intelligenza artificiale non violi la legge comunale sugli “strumenti automatizzati di decisione in materia di occupazione”. Per conformarsi alla nuova legge, i datori di lavoro dovranno adottare varie misure, che prevedono verifiche effettuate da soggetti terzi su possibili pregiudizi incorporati nei loro strumenti di assunzione e la divulgazione pubblica dei risultati. La regolamentazione dell’IA sta aumentando negli Stati Uniti con il “Blueprint for an AI Bill of Rights” dell’amministrazione Biden-Harris e a livello internazionale con l’AI Act dell’UE, che caratterizzerà una nuova era di regolamentazione per i datori di lavoro.
Questa crescente nebulosa di regolamenti in evoluzione e di insidie è il motivo per cui leader di pensiero come Gartner suggeriscono vivamente alle aziende di “procedere, ma senza esagerare” e di “creare una task force che riferisca al CIO e all’amministratore delegato” per pianificare una tabella di marcia per una trasformazione sicura dell’IA che attenui i vari rischi legali, di reputazione e di forza lavoro. I leader alle prese con il dilemma dell’IA devono prendere decisioni importanti. Da un lato, c’è una pressante pressione competitiva per abbracciarla in modo completo. Dall’altro lato, però, sta emergendo una crescente preoccupazione poiché l’implementazione di un’IA irresponsabile può comportare gravi sanzioni, danni sostanziali alla reputazione e significative battute d’arresto operative. Il timore è che, nel tentativo di essere all’avanguardia, i leader possano inconsapevolmente introdurre nella loro organizzazione potenziali bombe a orologeria, pronte a causare gravi problemi una volta che le soluzioni di IA saranno implementate e le normative entreranno in vigore.
Ad esempio, la National Eating Disorder Association (NEDA) ha recentemente annunciato di voler licenziare il personale della hotline per sostituirlo con il suo nuovo chatbot, Tessa. Tuttavia, pochi giorni prima di effettuare la transizione, la NEDA ha scoperto che il suo sistema promuoveva consigli dannosi come quello di incoraggiare le persone con disturbi alimentari a limitare le calorie e a perdere uno o due chili a settimana. La Banca Mondiale ha speso 1 miliardo di dollari per sviluppare e implementare un sistema algoritmico, chiamato Takaful, per distribuire assistenza finanziaria che, secondo Human Rights Watch, crea invece iniquità. E due avvocati di New York stanno affrontando una possibile azione disciplinare dopo aver utilizzato ChatGPT per redigere un documento giudiziario che si è scoperto contenere diversi riferimenti a casi precedenti inesistenti. Questi casi evidenziano la necessità di avere dipendenti ben formati e ben assistiti al centro di questa trasformazione digitale. L’IA può essere un valido assistente, ma non deve assumere la posizione di leader.
Principi per un’IA responsabile sul lavoro
Per aiutare i responsabili delle decisioni a evitare esiti negativi e a rimanere competitivi nell’era dell’IA, abbiamo elaborato diversi principi per una forza lavoro sostenibile alimentata dall’IA. I principi sono una miscela di codici etici di istituzioni come la National Science Foundation e di requisiti legali relativi al monitoraggio dei dipendenti e alla privacy dei dati, come l’Electronic Communications Privacy Act e il California Privacy Rights Act. Le fasi per garantire un’IA responsabile sul posto di lavoro consistono nei 13 punti seguenti:
- Consenso informato. Ottenere il consenso volontario e informato dei dipendenti a partecipare a qualsiasi intervento basato sull’IA dopo aver fornito loro tutte le informazioni pertinenti sull’iniziativa. Tra queste, lo scopo del programma, le procedure e i potenziali rischi e benefici.
- Interessi allineati. Gli obiettivi, i rischi e i benefici per il datore di lavoro e il dipendente vanno chiaramente articolati e allineati.
- Facilitazione di entrate e uscite. I dipendenti devono aderire ai programmi basati sull’intelligenza artificiale senza sentirsi costretti o obbligati, e possono facilmente ritirarsi dal programma in qualsiasi momento senza conseguenze negative e senza spiegazioni.
- Trasparenza conversazionale. Quando si utilizzano agenti conversazionali basati sull’IA, l’agente deve rivelare formalmente tutti gli obiettivi che il sistema intende raggiungere attraverso il dialogo con il dipendente.
- Spiegazioni delle azioni IA. Illustrare esplicitamente le misure adottate per eliminare, minimizzare e mitigare i pregiudizi negli interventi relativi ai dipendenti basati sull’IA, in particolare per i gruppi svantaggiati e vulnerabili, e fornire spiegazioni trasparenti su come i sistemi di IA giungono alle loro decisioni e azioni.
- Formazione e sviluppo sull’IA. Fornire formazione e sviluppo continui ai dipendenti per garantire un uso sicuro e responsabile degli strumenti basati sull’IA.
- Salute e benessere. Identificare i tipi di stress, disagio o danno indotti dall’IA e illustrare le misure per ridurre al minimo i rischi (ad esempio, come il datore di lavoro ridurrà lo stress causato dal monitoraggio costante del comportamento dei dipendenti da parte dell’IA).
- Raccolta dei dati. Identificare quali dati saranno raccolti, se la raccolta dei dati comporta procedure invasive o intrusive (ad esempio, l’uso di webcam in situazioni di lavoro da casa) e quali misure saranno adottate per ridurre al minimo i rischi.
- Condivisione dei dati. Comunicare l’intenzione di condividere i dati personali, con chi e perché.
- Privacy e sicurezza. Illustrare i protocolli per il mantenimento della privacy, l’archiviazione sicura dei dati dei dipendenti e le misure da adottare in caso di violazione della privacy stessa.
- Divulgazione a terze parti. Comunicare quali siano le terze parti utilizzate per fornire e mantenere le risorse dell’IA, il loro ruolo e il modo in cui garantiranno la privacy dei dipendenti.
- Comunicazione. Informare i dipendenti sulle modifiche apportate alla raccolta, alla gestione o alla condivisione dei dati, nonché su qualsiasi cambiamento nelle risorse di IA o nei rapporti con le terze parti.
- Leggi e regolamenti. Esprimere un impegno costante a rispettare tutte le leggi e le normative relative ai dati dei dipendenti e all’uso dell’IA.
Incoraggiamo i leader ad adottare e sviluppare urgentemente questa check-list nelle loro organizzazioni. Applicando questi principi, i leader possono garantire un’implementazione rapida e responsabile dell’IA.
Brian R. Spisak è ricercatore associato presso la National Preparedness Leadership Initiative di Harvard e consulente indipendente. È autore di Computational Leadership: Connecting Behavioral Science and Technology to Optimize Decision-Making and Increase Profits (Wiley, 2023). Louis B. Rosenberg è CEO e Chief Scientist di Unanimous AI, Chief Scientist della Responsible Metaverse Alliance ed ex professore alla California State University (Cal Poly). In precedenza è stato fondatore e CEO di Immersion Corporation (IMMR Nasdaq) e Outland Research. Max Beilby è uno psicologo aziendale che lavora nei servizi finanziari. Max è autore del blog Darwinian Business ed è vicepresidente senior del team Culture & Behavioral Risk di Citi. Max è anche membro del comitato consultivo di Ethical Systems.
Leggi Hbr Italia
anche su tablet e computer
Newsletter