INTELLIGENZA ARTIFICIALE
Kathy Baxter, Yoav Schlesinger
Agosto 2023
serggn/Getty Images
I LEADER AZIENDALI, gli accademici, i politici e innumerevoli altre persone sono alla ricerca di modi per sfruttare la tecnologia dell’IA generativa che ha il potenziale di trasformare il modo in cui impariamo, lavoriamo e altro ancora. Nel mondo degli affari, l’IA generativa ha il potenziale per trasformare il modo in cui le aziende interagiscono con i clienti e guidano la crescita del business. Una nuova ricerca mostra che il 67% dei responsabili IT sta dando priorità all’IA generativa nella propria azienda entro i prossimi 18 mesi, con un terzo (33%) che la indica come priorità assoluta. Le aziende stanno valutando il modo in cui l’IA potrebbe avere un impatto su ogni parte dell’azienda, comprese le vendite, il servizio clienti, il marketing, il commercio, l’IT, il settore legale, le risorse umane e altre ancora.
Tuttavia, i leader IT hanno bisogno di un modo affidabile e sicuro per i loro dipendenti di utilizzare queste tecnologie. Il 79% dei responsabili senior IT ha espresso il timore che queste tecnologie possano comportare rischi per la sicurezza e un altro 73% è preoccupato per possibili esiti distorti. Più in generale, le organizzazioni devono riconoscere la necessità di garantire un uso etico, trasparente e responsabile di queste tecnologie.
Un’azienda che utilizza la tecnologia di IA generativa in un contesto aziendale è diversa dai consumatori che la utilizzano per uso privato e individuale. Le aziende devono attenersi alle normative relative ai rispettivi settori (si pensi alla sanità) e c’è un campo minato di implicazioni legali, finanziarie ed etiche se i contenuti generati sono imprecisi, inaccessibili o offensivi. Ad esempio, il rischio di danni quando un chatbot di intelligenza artificiale generativa fornisce passaggi errati per cucinare una ricetta è molto più basso rispetto a quando fornisce a un operatore di un servizio esterno le istruzioni per riparare un macchinario pesante. Se non viene progettata e implementata con chiare linee guida etiche, l’IA generativa può avere conseguenze indesiderate e potenzialmente causare danni reali.
Le organizzazioni hanno bisogno di un quadro chiaro e attuabile per l’utilizzo dell’IA generativa e per allineare i loro obiettivi con le “attività da svolgere” della loro azienda, compreso il modo in cui l’IA generativa avrà un impatto sulle vendite, sul marketing, sul commercio, sui servizi e sulle attività IT.
Nel 2019 abbiamo pubblicato i nostri principi di fiducia dell’IA (trasparenza, equità, responsabilità, responsabilità e affidabilità), destinati a guidare lo sviluppo di strumenti di IA etici. Questi principi possono essere applicati a qualsiasi organizzazione che investa nell’IA. Tuttavia, questi principi non sono sufficienti se le organizzazioni non dispongono di una pratica etica che li renda operativi nello sviluppo e nell’adozione in questa tecnologia. Una pratica etica dell’IA matura rende operativi i suoi principi o valori attraverso lo sviluppo e l’implementazione responsabile del prodotto – unendo discipline come la gestione del prodotto, la scienza dei dati, l’ingegneria, la privacy, la legge, la ricerca sugli utenti, il design e l’accessibilità – per mitigare i potenziali danni e massimizzare i benefici sociali dell’IA. Esistono modelli per l’avvio, la maturazione e l’espansione di queste pratiche da parte delle organizzazioni, che forniscono chiare tabelle di marcia per la creazione di un’infrastruttura per lo sviluppo etico dell’intelligenza artificiale.
Ma con l’emergere – e l’accessibilità – dell’IA generativa, ci siamo resi conto che le organizzazioni hanno bisogno di linee guida specifiche per i rischi che questa tecnologia presenta. Queste linee guida non sostituiscono i nostri principi, ma fungono invece da stella polare per il modo in cui possono essere resi operativi e messi in pratica quando le aziende sviluppano prodotti e servizi che utilizzano questa nuova tecnologia.
Linee guida per lo sviluppo etico dell’IA generativa
La nostra nuova serie di linee guida può aiutare le organizzazioni a valutare i rischi e le considerazioni dell’IA generativa nel momento in cui questi strumenti vengono adottati a livello generale. Le linee guida coprono cinque aree di interesse.
Precisione. Le organizzazioni devono essere in grado di addestrare i modelli di IA sui propri dati per fornire risultati verificabili che bilancino accuratezza, precisione e richiamo (la capacità del modello di identificare correttamente i casi positivi all’interno di un determinato set di dati). È importante comunicare quando c’è incertezza sulle risposte dell’IA generativa e consentire alle persone di convalidarle. Ciò può essere fatto citando le fonti da cui il modello attinge le informazioni per creare i contenuti, spiegando perché l’IA ha dato la risposta che ha dato, evidenziando le incertezze e creando dei guardrail che impediscano la completa automazione di alcuni compiti.
Sicurezza. Fare ogni sforzo per mitigare i bias, la tossicità e i risultati dannosi conducendo valutazioni di pregiudizi, spiegabilità e robustezza è una priorità nell’IA. Le organizzazioni devono proteggere la privacy di qualsiasi informazione di identificazione personale presente nei dati utilizzati per l’addestramento per evitare potenziali danni. Inoltre, le valutazioni di sicurezza possono aiutare le organizzazioni a identificare le vulnerabilità che possono essere sfruttate da malintenzionati (ad esempio, gli attacchi di tipo “do anything now” che sono stati utilizzati per superare le difese di ChatGPT).
Onestà. Quando raccogliamo dati per addestrare e valutare i nostri modelli, rispettiamo la provenienza dei dati e ci assicuriamo che ci sia il consenso all’uso di tali dati. Questo può essere fatto sfruttando dati open-source e forniti dagli utenti. Inoltre, quando si forniscono output autonomi, è necessario essere trasparenti sul fatto che l’IA ha creato il contenuto. Questo può essere fatto attraverso filigrane sul contenuto o attraverso la messaggistica in-app.
Responsabilizzazione. Sebbene in alcuni casi sia meglio automatizzare completamente i processi, l’IA dovrebbe più spesso svolgere un ruolo di supporto. Oggi l’IA generativa è un ottimo assistente. Nei settori in cui stabilire della fiducia è una priorità assoluta, come in finanza o sanità, è importante che gli esseri umani siano coinvolti nel processo decisionale – con l’aiuto delle indicazioni basate sui dati che un modello di IA può fornire – per creare fiducia e mantenere la trasparenza. Inoltre, è necessario assicurarsi che i risultati del modello siano accessibili a tutti (ad esempio, generare un testo ALT per accompagnare le immagini, e che i risultati del testo siano accessibili a un lettore di schermo). Naturalmente, è necessario trattare con rispetto i collaboratori, i creatori e gli organizzatori di dati (ad esempio, salari equi, consenso all’uso del loro lavoro).
Sostenibilità. I modelli linguistici vengono definiti “grandi” in base al numero di valori o parametri utilizzati. Alcuni di questi modelli linguistici di grandi dimensioni (LLM) hanno centinaia di miliardi di parametri e utilizzano molta energia e acqua per l’addestramento. Per esempio, GPT3 ha richiesto 1.287 gigawattora, ovvero una quantità di elettricità pari a quella necessaria per alimentare 120 case statunitensi per un anno, e 700.000 litri di acqua dolce pulita.
Quando si considerano i modelli di IA, più grandi non sempre significano migliori. Nello sviluppare i nostri modelli, cercheremo di ridurne al minimo le dimensioni e di massimizzarne l’accuratezza, addestrando i modelli su grandi quantità di dati CRM di alta qualità. Ciò contribuirà a ridurre le emissioni di anidride carbonica, poiché sono necessari meno calcoli, il che significa un minor consumo di energia da parte dei centri dati e minori emissioni di anidride carbonica.
Integrazione dell’IA generativa
La maggior parte delle organizzazioni integrerà gli strumenti di IA generativa piuttosto che costruirne di propri. Ecco alcuni suggerimenti tattici per integrare in modo sicuro l’IA generativa nelle applicazioni aziendali per ottenere risultati di business:
Utilizzare dati zero-party o first-party. Le aziende dovrebbero addestrare gli strumenti di IA generativa utilizzando dati di parte zero – dati che i clienti condividono in modo proattivo – e dati di prima parte, raccolti direttamente. Una solida provenienza dei dati è fondamentale per garantire che i modelli siano accurati, originali e affidabili. Affidarsi a dati di terzi o a informazioni ottenute da fonti esterne per addestrare gli strumenti di IA rende difficile garantire l’accuratezza dei risultati.
Ad esempio, gli intermediari di dati possono disporre di dati vecchi, combinare in modo errato dati provenienti da dispositivi o account che non appartengono alla stessa persona e/o fare inferenze imprecise sulla base dei dati. Questo vale per i nostri clienti quando fondiamo i modelli sui loro dati. Quindi, in Marketing Cloud, se i dati del CRM di un cliente provengono tutti da data broker, la personalizzazione potrebbe essere sbagliata.
Mantenere i dati freschi e ben etichettati. L’intelligenza artificiale è buona solo quanto i dati su cui viene addestrata. I modelli che generano risposte alle richieste di assistenza clienti produrranno risultati imprecisi o non aggiornati se i contenuti su cui si basano sono vecchi, incompleti e imprecisi. Questo può portare ad allucinazioni, in cui uno strumento afferma con sicurezza che un’informazione falsa è invece reale. L’addestramento di dati che contengono distorsioni darà luogo a strumenti che le propagheranno.
Le aziende devono esaminare tutti i set di dati e i documenti che verranno utilizzati per addestrare i modelli e rimuovere gli elementi parziali, tossici e falsi. Questo processo di curatela è fondamentale per i principi di sicurezza e accuratezza.
Assicurarsi che ci sia un umano nel circuito. Solo perché qualcosa può essere automatizzato, non significa che debba esserlo. Gli strumenti di intelligenza artificiale generativa non sono sempre in grado di comprendere il contesto emotivo o aziendale, né di capire quando sono sbagliati o dannosi.
Gli esseri umani devono essere coinvolti per verificare l’accuratezza dei risultati, individuare le distorsioni e garantire che i modelli funzionino come previsto. Più in generale, l’IA generativa deve essere vista come un modo per aumentare le capacità umane e potenziare le comunità, non per sostituirle o rimpiazzarle.
Le aziende svolgono un ruolo fondamentale nell’adozione responsabile dell’IA generativa e nell’integrazione di questi strumenti in modo da migliorare, e non ridurre, l’esperienza lavorativa dei loro dipendenti e dei loro clienti. Si tratta di garantire un uso responsabile dell’IA per mantenere l’accuratezza, la sicurezza, l’onestà, la responsabilizzazione e la sostenibilità, attenuando i rischi ed eliminando i risultati distorti. Inoltre, l’impegno dovrebbe andare oltre gli interessi aziendali immediati, comprendendo responsabilità sociali più ampie e pratiche etiche di IA.
Testare, testare, testare. L’IA generativa non può funzionare in base a un principio di “imposta e dimentica”: gli strumenti hanno bisogno di una costante supervisione. Le aziende possono iniziare a cercare modi per automatizzare il processo di revisione, raccogliendo metadati sui sistemi di IA e sviluppando mitigazioni standard per rischi specifici.
In ultima analisi, anche gli esseri umani devono essere coinvolti nel controllo dell’accuratezza, delle distorsioni e delle allucinazioni. Le aziende possono considerare di investire nella formazione etica sull’IA per gli ingegneri e i manager in prima linea, in modo che siano preparati a valutare gli strumenti di IA. Se le risorse sono limitate, possono dare priorità ai test dei modelli che hanno il maggior potenziale di causare danni.
Ottenere feedback. Ascoltare i dipendenti, i consulenti di fiducia e le comunità interessate è fondamentale per identificare i rischi e correggere la rotta. Le aziende possono creare una serie di percorsi che consentano ai dipendenti di segnalare le proprie preoccupazioni, come una linea telefonica anonima, una mailing list, un canale Slack o social media dedicato o focus group. Anche la creazione di incentivi per i dipendenti che segnalano i problemi può essere efficace.
Alcune organizzazioni hanno formato dei consigli etici – composti da dipendenti di tutta l’azienda, da esperti esterni o da un mix di entrambi – per valutare lo sviluppo dell’IA. Infine, avere linee di comunicazione aperte con gli stakeholder della comunità è fondamentale per evitare conseguenze indesiderate.
CON LA DIFFUSIONE dell’IA generativa, le aziende hanno la responsabilità di garantire un utilizzo etico di questa tecnologia e di ridurre i potenziali danni. Impegnandosi a rispettare le linee guida e ad avere dei paletti in anticipo, le aziende possono garantire che gli strumenti che impiegano siano accurati, sicuri e affidabili, e che aiutino gli esseri umani a prosperare.
L’IA generativa si sta evolvendo rapidamente, quindi le misure concrete che le aziende devono adottare si evolveranno nel tempo. Ma attenersi a un solido quadro etico può aiutare le aziende a navigare in questo periodo di rapida trasformazione.
Kathy Baxter è Principal Architect of Ethical AI Practice di Salesforce e si occupa di sviluppare best practice basate sulla ricerca per educare i dipendenti di Salesforce, i clienti e il settore allo sviluppo di un’IA responsabile. Collabora con esperti esterni di IA e di etica per far evolvere continuamente le politiche, le pratiche e i prodotti di Salesforce. È membro del Consiglio consultivo di Singapore sull’uso etico dell’IA e dei dati, Visiting AI Fellow presso il NIST e fa parte del Consiglio di EqualAI. Prima di Salesforce, ha lavorato presso Google, eBay e Oracle nella ricerca sull’esperienza utente. È coautrice di Understanding Your Users: A Practical Guide to User Research Methodologies. Yoav Schlesinger è Architect of Ethical AI Practice di Salesforce e aiuta l’azienda a incorporare e istanziare pratiche di prodotto etiche per massimizzare i benefici sociali dell’IA. Prima di approdare a Salesforce, Yoav è stato membro fondatore del Tech and Society Solutions Lab di Omidyar Network, dove ha lanciato la Responsible Computer Science Challenge e ha contribuito allo sviluppo di EthicalOS, un toolkit di riduzione dei rischi per i product manager.
Leggi Hbr Italia
anche su tablet e computer
Newsletter