INTELLIGENZA ARTIFICIALE

4 tipi di rischi legati a GenIA e come mitigarli

Öykü Isik, Amit Joshi, Lazaros Goutas

Giugno 2024

4 tipi di rischi legati a GenIA e come mitigarli

Eugene Mymrin/Getty Images

SECONDO UN SONDAGGIO condotto da Gartner la scorsa primavera su 2.500 dirigenti, circa il 70% degli intervistati ha dichiarato che le proprie organizzazioni stanno studiando come integrare l’IA generativa nelle loro organizzazioni, e i tassi di adozione dell’IA a livello globale sono stati segnalati come più alti in ogni regione esaminata, secondo il rapporto Stanford AI Index pubblicato di recente.

I giganti della tecnologia, come Microsoft e Salesforce, hanno già integrato l’IA generativa in molti dei loro prodotti e recentemente si sono impegnati a offrire alle imprese la possibilità di creare versioni personalizzate dei loro Large Language Models (LLM). Dall’azienda svizzera di aromi e profumi Firmenich al team di marketing di Coca-Cola, le aziende sono fortemente curiose di sapere se – e come – questi strumenti possono creare nuovo valore per loro.

Molte organizzazioni, tuttavia, sono ancora comprensibilmente titubanti nell’adottare applicazioni di IA generativa, citando preoccupazioni per le minacce alla privacy e alla sicurezza, per la violazione del copyright, per la possibilità di pregiudizi e discriminazioni nei risultati e per altri rischi. Gli aspetti negativi di un’adozione diffusa di GenIA vanno da quelli appena fastidiosi (come uno spam personalizzato) a quelli veramente catastrofici (come il rapido esaurimento delle fonti idriche in parti vulnerabili del pianeta per sostenere i più grandi centri dati mai costruiti). Alcune organizzazioni hanno vietato ai propri dipendenti di utilizzarla. Apple e Samsung, per esempio, hanno vietato l’uso interno di ChatGPT, soprattutto da parte del team di sviluppo software, dopo essersi accorte che sulla piattaforma era stato caricato codice potenzialmente pericoloso comportante il rischio di perdere informazioni riservate.

In questo momento, i Governi si adoperano per elaborare schemi e leggi ragionevoli per gestire questa tecnologia e i suoi lati negativi, il che significa che le aziende devono per lo più affrontare queste questioni da sole. È chiaro che i rischi posti da GenIA non sono tutti uguali, e quindi dobbiamo comprenderli e gestirli di conseguenza. In questo articolo proponiamo un quadro di riferimento di alto livello che fornirà ai dirigenti un modo per classificare le potenziali sfide all’interno del panorama dell’IA generativa e quindi mitigarle.

 

Un modello per i rischi dell’IA generativa

Classifichiamo i rischi dell’IA generativa in base a due fattori: l’intento e l’utilizzo. Separiamo, cioè, l’applicazione accidentale dalle pratiche illecite deliberate (intento). Allo stesso modo, l’utilizzo di strumenti di IA generativa per creare contenuti si differenzia dal consumo di contenuti che altre parti possono aver creato (utilizzo). Riteniamo che ciascuno dei quattro tipi di rischio evidenziati nel nostro quadro di riferimento presenterà sfide distinte.

 

Uso improprio

L’uso improprio si riferisce allo sfruttamento non etico o illegale delle capacità della GenIA per scopi dannosi, come truffe e campagne di disinformazione. Con il miglioramento delle capacità di GenIA, i malintenzionati le hanno utilizzate per vari tipi di attacchi informatici. Ad esempio, la riduzione dei costi di creazione di contenuti ha portato a un aumento dei deepfake, utilizzati per l’ingegneria sociale, gli attacchi di disinformazione automatizzati, le truffe, le frodi finanziarie, i furti di identità e persino la manipolazione dei risultati elettorali.

 

Applicazione errata

Uno dei problemi ben noti di GenIA è che privilegia la plausibilità rispetto all’accuratezza e può creare risultati imprecisi – un problema noto come “allucinazione”. Questo diventa un problema quando gli utenti dipendono da essa in modo improprio o ne applicano male gli strumenti: ad esempio, nel giugno 2023, un conduttore radiofonico della Georgia ha intentato una causa contro OpenAI dopo che ChatGPT aveva erroneamente affermato che era stato accusato di frode e appropriazione indebita di fondi da un’organizzazione no-profit. I casi di applicazione errata potrebbero aumentare man mano che GenIA diventa multimodale e più abile nel creare contenuti convincenti.

 

Travisamento

Questa categoria comprende le situazioni in cui i risultati di GenIA creati da terzi vengono utilizzati e diffusi di proposito, nonostante i dubbi sulla credibilità o sull’autenticità. I deepfake di prodotti falliti creati da persone sconosciute vengono regolarmente condivisi sui social media e le aziende potrebbero presto dover affrontare una marea di casi del genere. Ad esempio, a marzo un video che mostrava l’incidente di un cybertruck Tesla è stato ampiamente condiviso su Reddit, prima che venisse confermato che si trattava di un deepfake. Questi esempi ci fanno capire che la falsa rappresentazione è dovuta al consumo o all’utilizzo intenzionale di contenuti GenIA ingannevoli.

 

Disavventure

L’ultima categoria comprende i contenuti che possono essere consumati e condivisi accidentalmente da utenti che non sono consapevoli della loro mancanza di autenticità. Ad esempio, quando diversi utenti di Twitter hanno condiviso un deepfake di un’esplosione al Pentagono, le azioni a Wall Street sono temporaneamente crollate perché molti hanno pensato che l’immagine fosse reale. In modo simile, i deepfake sono sempre più utilizzati per aggirare i protocolli di sicurezza. Nel 2019, l’amministratore delegato di un’azienda energetica britannica è stato vittima di una frode audio deepfake, pensando erroneamente che il CEO della sua società madre gli avesse chiesto di trasferire un’ingente somma di denaro a un’azienda fornitrice.

Ognuno di questi rischi presenta sfide uniche, ma esistono azioni che i leader delle aziende pubbliche e private possono intraprendere per mitigarli. Le nostre raccomandazioni si basano principalmente sul fatto che il rischio sia il risultato della creazione di contenuti di IA di tipo discutibile, che siano intenzionali o meno, o dell’utilizzo di contenuti di IA di tipo discutibile. Questa differenziazione è ciò che dovrebbe determinare l’azione di mitigazione.

 

Mitigazione dei rischi legati alla creazione di contenuti: uso improprio e applicazione impropria

Per mitigare il rischio di utilizzo e applicazione impropria dei contenuti di GenIA, le organizzazioni devono sviluppare la capacità di rilevare, identificare e prevenire la diffusione di tali contenuti potenzialmente fuorvianti. I grandi fornitori di GenIA hanno già espresso il loro impegno ad assumersi la responsabilità per le richieste di risarcimento per violazione della proprietà intellettuale (IP) che i loro clienti potrebbero subire a causa dell’utilizzo di GenIA. Tuttavia, dato il potenziale danno reputazionale che ne potrebbe derivare, i dirigenti devono essere proattivi nel riconoscere questo rischio e predisporre efficaci barriere di protezione all’interno dell’organizzazione. Le seguenti azioni sono dei buoni punti di partenza.

 

1. Assicurare l’allineamento tra i valori organizzativi e i principi dell’IA.

Affrontare le sfide dell’IA va oltre la semplice governance: si tratta fondamentalmente di valori aziendali e di un impegno per un’IA etica. Un’organizzazione impegnata nell’implementazione dell’IA dovrebbe iniziare a stabilire chiari principi e linee guida per l’utilizzo di GenIA all’interno dell’organizzazione, con l’obiettivo di garantire che il suo utilizzo non causi alcun danno personale o sociale. Spesso comprendenti trasparenza, equità, responsabilità e sicurezza, i principi dell’IA che un’organizzazione sceglie di adottare devono essere in linea con i suoi valori etici. Di conseguenza, è necessario articolare tali valori in modo esplicito e renderli immediatamente disponibili a tutti i dipendenti.

Ogni organizzazione che crea o utilizza l’IA deve garantire un allineamento perfetto tra questi valori fondamentali e i principi dell’IA. Questo allineamento non solo funge da salvaguardia per l’organizzazione, ma serve anche come strategia lungimirante per garantire un uso responsabile, sostenibile e vantaggioso di GenIA.

 

2. Obbligare tutte le entità che creano contenuti con l’IA a contrassegnarli.

L’apposizione di contrassegni (watermark) dell’output dell’IA è stata suggerita come meccanismo per garantire la trasparenza e segnalare la fonte dell’output, chi lo possiede e la sua (relativa) autenticità. Se un determinato contenuto è generato da un sistema di IA, questo fatto dovrebbe essere pubblicamente accessibile e comunicato in modo chiaro; il contrassegno dell’output assicura che gli utenti possano distinguere tra gli output generati dall’IA e quelli creati dall’uomo. Giganti dell’IA, come OpenAI, Alphabet e Meta, si sono già impegnati volontariamente a contrassegnare i loro prodotti generati dall’IA per rispondere alle preoccupazioni del governo statunitense sulle minacce poste da GenIA. L’istituzionalizzazione di un protocollo di questo tipo non solo garantisce la tracciabilità e infonde fiducia, ma consente anche agli utenti di giudicare con sicurezza l’autenticità dei contenuti in cui si imbattono.

 

3. Creare all’interno dell’organizzazione un ambiente GenIA controllato.

Diverse organizzazioni con cui lavoriamo – nei settori dei beni di consumo confezionati (CPG), dell’automotive, dell’industria, della finanza e dei media – stanno facendo a gara per creare i propri strumenti GenIA perfezionati. Per esempio, all’IMD stiamo mettendo a punto un LLM in base alle nostre esigenze e abbiamo aggiunto alla nostra architettura un ulteriore livello di strumenti di gestione della privacy per garantire che nessuna informazione di identificazione personale trovi spazio nel nostro GPT. Questi LLM, pur non essendo immuni da allucinazioni o usi impropri, offrono un certo grado di protezione e controllo sui contenuti creati e consumati.

Oltre al vantaggio di adattare la capacità di LLM alle esigenze dell’organizzazione, l’LLM su misura consente all’organizzazione di avere un controllo significativo sull’architettura e di evitare il vendor lock-in. Dal punto di vista della mitigazione del rischio, le organizzazioni possono curare i set di dati di formazione, assicurarsi che siano imparziali e adottare misure di privacy per proteggere le informazioni potenzialmente riservate o sensibili. Le prove a sostegno della tesi che la messa a punto produce risultati migliori sembrano accumularsi.

 

Mitigare i rischi legati al consumo di contenuti: interpretazione e rappresentazione errata

Anche se i contenuti di IA di dubbia qualità non sono generati internamente, il loro uso – intenzionale o meno – potrebbe creare danni alla reputazione e altre conseguenze negative per le organizzazioni. Le nostre raccomandazioni per mitigare questi problemi si ispirano alle best practice già consolidate per prevenire il consumo di materiali pericolosi come sostanze chimiche, farmaci e altri prodotti simili. Ad esempio, organizzazioni come l’OSHA (Occupational Safety and Health Administration) e l’EPA (Environmental Protection Agency) impongono la formazione, l’uso di dispositivi di protezione individuale (DPI) per la manipolazione di materiali pericolosi e un sistema di emergenza chiaramente definito in caso di perdite. Parallelamente, proponiamo i seguenti passi.

 

1. Fornire opportunità di formazione sulla demistificazione e sulla consapevolezza di GenIA in tutta l’organizzazione.

La creazione di guardrail interni sull’uso di GenIA, così come di politiche su quando possa essere usata o meno, può aiutare a mitigare le preoccupazioni sui pregiudizi al riguardo, sulla mancanza di trasparenza, sulla validità dei risultati e sulle insidie normative. A questi guardrail dovrebbero essere affiancati programmi di formazione in grado di sensibilizzare al consumo sicuro e responsabile dei contenuti dell’IA generativa.

PwC ha recentemente lanciato un programma di formazione obbligatoria sull’uso di GenIA per la sua forza lavoro statunitense. Altri stanno seguendo un approccio più mirato: Publicis Sapient sta variando il contenuto della sua formazione sull’IA in base ai diversi ruoli lavorativi, ma richiede anche che tutta la sua forza lavoro sia formata sull’ingegneria dei prompt. Inoltre, un team aziendale ben informato può collaborare più efficacemente con i team di data science e identificare meglio i compiti dell’IA che creano valore. Ciò garantisce che i contenuti generati dall’IA siano in linea con gli obiettivi organizzativi e gli standard di qualità.

 

2. Convalidare i risultati dell’IA attraverso meccanismi di etichettatura e avvertimento.

Attualmente non esistono sistemi automatici in grado di identificare in modo affidabile se un prodotto è stato creato dall’IA o meno. Oltre al watermarking menzionato in precedenza, le organizzazioni devono istituire altri meccanismi per il controllo incrociato e la verifica dei contenuti. Questi meccanismi devono essere abbastanza robusti da rilevare sia le allucinazioni (usi impropri dell’IA generativa) sia le applicazioni deliberatamente errate dei contenuti. Ad esempio, Canva, la piattaforma per la creazione di contenuti digitali, dispone di una serie di strumenti automatizzati per rivedere e regolare i contenuti ritenuti inappropriati.

Tali sistemi possono, da un lato, salvaguardare le organizzazioni dai rischi legati al consumo di contenuti online menzionati in precedenza; dall’altro, possono migliorare il processo decisionale garantendo trasparenza, responsabilità e una maggiore qualità dei dati. Simili controlli incrociati dovrebbero essere effettuati non solo dalle organizzazioni che creano i modelli di base per la GenIA, come OpenAI, Google e altri, ma anche da tutte le aziende che utilizzano questi modelli.

Le protezioni interne che possono essere implementate tramite il prompt engineering spesso non sono sufficienti a mitigare questi rischi. Anche la messa a punto dei modelli e l’utilizzo di una generazione potenziata dal punto di vista del reperimento, in grado di combattere le allucinazioni, potrebbero non essere un’opzione praticabile, dal momento che molte organizzazioni utilizzano attualmente le versioni base dei sistemi di GenIA. Soprattutto, i meccanismi di cui sopra non sono in grado di proteggere da applicazioni errate. In questo contesto, le organizzazioni possono adottare e implementare sistemi che controllino e verifichino le affermazioni fondamentali dei contenuti generati, la loro provenienza e le fonti utilizzate. Tali sistemi possono essere integrati da un meccanismo di controllo “a quattro occhi” – in cui determinati tipi di contenuti e attività vengono esaminati da almeno due persone – che periodicamente controlla e verifica i contenuti.

 

3. Predisporre piani di mitigazione dei danni per le situazioni non contenute.

I rischi dell’intelligenza artificiale sono contrastati meglio se affrontati in modo proattivo, ad esempio creando uno schema per la gestione dei rischi e adottando alcune delle pratiche menzionate in precedenza. Esistono best practice in rapido sviluppo in questo settore, come il nuovo standard ISO 23894 per la gestione dei rischi dell’IA, che offre una guida strategica alle organizzazioni per la gestione dei rischi legati allo sviluppo e all’uso dell’IA stessa.

Tuttavia, nonostante gli sforzi profusi, è improbabile che tutte le minacce possano essere arginate: alcune di esse finiscono infatti nei forum pubblici e possono persino diventare virali. In queste situazioni, le autorità di regolamentazione e i team tecnici delle aziende devono disporre di un piano per contenere i danni. Possiamo imparare dalle pratiche di risposta agli incidenti di cybersecurity per quanto riguarda gli elementi da includere in questi piani. Ad esempio, Adobe ha sviluppato un programma di risposta agli incidenti che prevede anche disposizioni sulla sicurezza dei suoi modelli di intelligenza artificiale.

In questi casi, è importante disporre di un gruppo di lavoro interno in grado di comprendere, dare priorità e controllare rapidamente i rischi e di comunicare con tutte le parti interessate. Una strategia di comunicazione efficace dovrebbe prevedere la divulgazione delle pratiche di governance e di gestione del rischio dell’organizzazione in materia di IA, nonché la strategia di contenimento del rischio.

 

L’IA GENERATIVA PROMETTE di portare un cambiamento fondamentale che avrà un impatto significativo sull’umanità e, come tutte le tecnologie più importanti, comporta dei rischi intrinseci. Riconoscendo questi rischi, più di 70 giurisdizioni in tutto il mondo sono oggi al lavoro per creare una legislazione sull’IA. Tuttavia, lo sviluppo della tecnologia è molto più veloce dei processi legislativi, creando lacune o zone grigie che possono finire per diventare insidie per la reputazione della maggior parte delle organizzazioni. È proprio per questo che i dirigenti dovrebbero iniziare a prendere iniziative per uno sviluppo responsabile dell’IA. Quanto prima capiremo e impareremo a gestire questi rischi, tanto prima potremo applicare questa tecnologia a fin di bene, sia nella sfera pubblica che in quella privata.

 

Öykü Isik è professoressa di Strategia digitale e Cybersecurity presso l’IMD di Losanna, Svizzera, nominata come thought leader da Thinkers50 Radar nel 2023, e fa parte del Global Future Council on Cybersecurity del WEF. Amit Joshi è professore di AI, Analytics e Marketing Strategy presso l’IMD. Lazaros Goutas è ricercatore presso il Global Center for Digital Business Transformation dell’IMD Business School.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400