DIRITTO ED ETICA
Michael Wade, Tomoko Yokoi
Gennaio 2025
HBR Staff/Jorg Greuel/Getty Images
QUANDO IL PARLAMENTO EUROPEO ha approvato la legge sull’intelligenza artificiale (IA) all’inizio del 2024, Deutsche Telekom, uno dei principali fornitori di telecomunicazioni tedeschi, si è sentita sicura e preparata. Da quando ha stabilito i suoi principi di IA responsabile nel 2018, l’azienda ha lavorato per incorporarli nel ciclo di sviluppo dei suoi prodotti e servizi basati sull’IA. “Abbiamo anticipato che le normative sull’IA erano all’orizzonte e abbiamo incoraggiato i nostri team di sviluppo a integrare i principi nelle loro operazioni con anticipo, per evitare aggiustamenti dirompenti in seguito. L’IA responsabile è ormai parte integrante delle nostre attività”, ha spiegato Maike Scholz, Group Compliance and Business Ethics di Deutsche Telekom.
Purtroppo, la nostra ricerca suggerisce che tali misure proattive sono l’eccezione piuttosto che la regola. Sebbene l’etica dell’IA sia in cima all’agenda di molte organizzazioni, tradurne i principi in pratiche e comportamenti si rivela più facile a dirsi che a farsi. Tuttavia, con le pesanti sanzioni finanziarie in gioco in caso di non conformità, non c’è tempo da perdere. Cosa devono fare i leader per raddoppiare le loro iniziative di IA responsabile?
Per trovare le risposte, ci siamo confrontati con organizzazioni di diversi settori, ognuna in una fase diversa dell’implementazione di un’IA responsabile. Mentre gli ingegneri dei dati e i data scientist si assumono di solito la maggior parte delle responsabilità, dalla concezione alla produzione del ciclo di vita dello sviluppo dell’IA, i leader non tecnici possono svolgere un ruolo chiave nell’assicurare l’integrazione dell’IA responsabile. Abbiamo identificato quattro mosse chiave – tradurre, integrare, calibrare e proliferare – che i leader possono fare per garantire che le pratiche di IA responsabile siano pienamente integrate in standard operativi più ampi.
Mossa n. 1: tradurre i principi di alto livello in linee guida pratiche
Molte organizzazioni elaborano una carta etica dell’IA, ma spesso faticano a implementarne i principi nelle loro operazioni quotidiane. Con il 79% dei lavoratori del settore tecnologico che dichiarano di aver bisogno di risorse pratiche che li aiutino a gestire i problemi etici, questi devono essere tradotti in linee guida pratiche.
È un processo che richiede tempo. I principi auto-vincolanti di Deutsche Telekom si impegnavano a un uso responsabile, solidale, trasparente e affidabile dell’IA. Tuttavia, l’azienda si è presto resa conto che questi principi erano troppo astratti per i suoi sviluppatori e ha iniziato a tradurli in termini più operativi e praticabili. Nel 2021, l’azienda ha presentato le linee guida per l’ingegneria e l’utilizzo dell’IA, che documentavano le migliori pratiche, i metodi e i suggerimenti per incorporare i principi nei processi di sviluppo. Queste linee guida forniscono azioni specifiche da intraprendere prima, durante e dopo l’avvio di un progetto di sviluppo, evidenziando considerazioni essenziali per i proprietari delle aziende, i project manager, i team di prodotto e i team operativi. Disponibile sia in tedesco che in inglese, ogni linea guida è stata chiaramente documentata e resa accessibile a tutti i dipendenti.
Allo stesso modo, il processo di integrazione dell’etica dell’IA presso Thomson Reuters, un’azienda globale di contenuti e tecnologia, è stato fondamentale per la costruzione e l’applicazione della tecnologia dell’IA. Un aspetto critico di questo percorso consisteva nel tradurre efficacemente i principi etici dei dati e dell’IA, che enfatizzavano la fiducia, in un programma completo di governance dei dati e dell’IA. L’azienda ha sottolineato la natura riflessiva di questo processo, che ha comportato la formulazione di domande quali: “Quali sono gli elementi e i processi fondamentali?” e “Quali sono le aspettative da definire per ogni dipendente?”.
Azioni chiave: facilitare l’allineamento
Mantenere uniti i team: i team della conformità e del digitale hanno spesso avuto un rapporto difficile. La compliance è vista come un ostacolo all’innovazione, mentre i team digitali sono visti come cani sciolti alla ricerca del rischio: il successo dell’allineamento tra i due aspetti dipende spesso dalla struttura di governance. In Thomson Reuters, il team di etica ha lavorato a stretto contatto con il team di governance dei dati e dei modelli. I due team si occupavano di aspetti diversi dello stesso argomento, ad esempio di come garantire che i dati fossero utilizzati in modo responsabile e sicuro in tutta l’organizzazione. La stretta collaborazione ha evidenziato l’importanza dell’etica digitale come aspetto fondamentale del processo di sviluppo dell’IA.
Facilitare i dialoghi aperti: creare dialoghi aperti è importante quanto stabilire un sistema di governance ben strutturato. Abbiamo riscontrato che le organizzazioni si sono distinte quando si sono impegnate attivamente nelle discussioni sulla complessità dell’implementazione etica dell’IA. Prendiamo ad esempio l’iniziativa di Deutsche Telekom di tradurre il principio di trasparenza negli annunci del servizio clienti sfruttando i chatbot. Il reparto di assistenza ha espresso preoccupazioni circa il potenziale disimpegno dei clienti se accolti con messaggi formali come “Salve, sono l’assistente digitale di Deutsche Telekom”. Questa preoccupazione ha portato ad ampie discussioni tra i dipartimenti di compliance, etica e assistenza, che alla fine hanno portato allo sviluppo di un gruppo di lavoro per ideare una soluzione adeguata.
Mossa n. 2: integrare le considerazioni etiche nei processi di progettazione e sviluppo dell’IA
Il passo successivo consiste nell’integrare le considerazioni etiche nella routine di sviluppo dell’IA. Spesso, purtroppo, i problemi etici sorgono dopo. Per evitare questi problemi, molte organizzazioni hanno adottato un approccio proattivo, affrontando le questioni etiche durante la fase di sviluppo. Abbiamo riscontrato che le organizzazioni, soprattutto quelle con una forte governance dei dati, hanno sfruttato i processi di privacy esistenti per incorporare ulteriori principi etici dell’IA. Questo approccio ha permesso loro di basarsi su procedure interne collaudate e di adattarle in risposta all’evoluzione dei requisiti normativi e delle aspettative del mercato.
Operando in un settore altamente regolamentato, il colosso bancario spagnolo CaixaBank aveva stabilito solide procedure di privacy per ogni nuovo sviluppo tecnologico. Nel 2020, le autorità spagnole hanno introdotto nuovi requisiti per l’uso responsabile dei modelli di intelligenza artificiale che sfruttano i dati personali, tra cui più di 100 controlli relativi a trasparenza, spiegabilità, equità (controllo delle distorsioni) e robustezza (accuratezza). Per conformarsi a questa nuova normativa, CaixaBank ha adattato la sua metodologia di privacy e i processi di convalida esistenti per lo sviluppo di modelli di IA. Come hanno descritto fonti interne, “seguiamo i nostri processi di privacy per l’etica IA per sfruttare ciò che l’organizzazione ha costruito finora”.
Azioni chiave: navigazione e supporto
Adattarsi alla rilevanza operativa: le organizzazioni hanno il compito di implementare framework che non solo aderiscano agli standard globali, ma che risuonino anche con le loro realtà operative uniche. Uno studio del 2019 ha identificato 106 strumenti e metodologie, e il numero continua a crescere. I leader possono contribuire a vagliare questo affollato panorama per garantire che gli strumenti e i framework di IA siano completi e rilevanti dal punto di vista operativo. Ad esempio, quando SwissPost, il servizio postale nazionale della Svizzera, si è reso conto che un processo di autocertificazione che stava sperimentando si sovrapponeva in modo significativo ai requisiti di certificazione ISO preesistenti, ha sviluppato un processo semplificato che includeva solo domande non ISO. Sophia Ding, Digital Ethics & AI Specialist, ha spiegato: “Abbiamo riconosciuto l’importanza di personalizzare gli strumenti per adattarli alle esigenze e ai contesti organizzativi specifici”.
Fornire assistenza continua: il viaggio non si esaurisce con l’impostazione iniziale dei guardrail etici, ma richiede un supporto e una supervisione continui. Le organizzazioni possono stabilire meccanismi di supporto continuo per rispondere alle domande che si presentano. Creando un account di posta elettronica centralizzato, Deutsche Telekom ha invitato singoli e team a presentare domande sull’implementazione dell’etica dell’IA. Il team di compliance si è anche consultato sui progetti, ha fornito consigli e, in alcuni casi, ha rilasciato certificazioni etiche interne. Queste certificazioni hanno aiutato i proprietari dei prodotti a valutare se i loro progetti di IA fossero conformi agli standard etici. Per garantire ulteriormente l’aderenza, il team ha condotto controlli casuali, selezionando ogni anno il 10% di tutti i progetti di IA per verificarne la conformità alle linee guida etiche. Queste azioni hanno contribuito a garantire che l’integrazione dell’etica dell’IA non fosse un’attività una tantum, ma un processo continuo.
Mossa n. 3: calibrare le soluzioni di IA in risposta alle condizioni locali e all’evoluzione delle tecnologie
Nelle fasi di test e valutazione, l’obiettivo principale è verificare che la soluzione di IA soddisfi gli obiettivi e i requisiti originali. Un aspetto essenziale della fase di calibrazione è garantire che la soluzione rimanga rilevante per le applicazioni del mondo reale. Nel corso del tempo, può verificarsi una divergenza tra gli scenari per i quali la soluzione è stata creata e l’evoluzione reale.
È quindi necessario un monitoraggio continuo per rilevare e adattarsi a qualsiasi cambiamento. Tuttavia, una sfida significativa evidenziata da molti è stata la larghezza di banda limitata per il monitoraggio continuo dopo l’implementazione. Per risolvere questo problema, si possono utilizzare diverse tattiche. In primo luogo, la responsabilità del monitoraggio attivo dell’etica dell’IA dovrebbe essere distribuita all’interno dell’organizzazione ai team di implementazione e alle comunità di utenti. Questo approccio facilita il dialogo e la comunicazione continui, assicurando che qualsiasi problema venga prontamente identificato e risolto. In secondo luogo, è fondamentale stabilire un ordine di priorità per i casi d’uso ad alto rischio da sottoporre a un’attenzione più mirata.
Azioni chiave: sostenere lo slancio
Il monitoraggio e l’adeguamento delle soluzioni di IA in risposta alle condizioni locali e all’evoluzione delle tecnologie richiede investimenti sostanziali in termini di tempo e risorse, in particolare per quanto riguarda il personale e l’implementazione di procedure di “allarme rosso”.
Posizionare l’IA responsabile come fattore di valore: organizzazioni leader che allineano le considerazioni etiche agli obiettivi aziendali. La compagnia assicurativa svizzera Die Mobiliar esemplifica questo approccio. Invece di considerare l’etica dell’IA come un processo oneroso e pieno di liste di controllo, l’azienda si è concentrata sulla ricerca di un equilibrio ottimale tra strategia aziendale, privacy dei dati ed etica dell’IA. Per raggiungere questo obiettivo, Die Mobiliar ha impiegato un team interdisciplinare, comprendente rappresentanti di compliance, sicurezza, scienza dei dati e IT, che si sono incontrati regolarmente per esplorare questa sinergia.
Sfruttare le partnership esterne: il coinvolgimento di esperti esterni, istituzioni accademiche e gruppi industriali può fornire nuove prospettive e intuizioni che informano l’adeguamento delle soluzioni di IA. L’Oregon Health and Science University sta utilizzando sempre più strumenti di IA per migliorare la ricerca sanitaria, l’assistenza ai pazienti e l’amministrazione dell’ospedale. Il Chief Information Officer Bridget Barnes ha sottolineato l’importanza di avere una visione ampia dell’etica dell’IA: “Non ci concentriamo solo internamente, ma collaboriamo anche con altri centri medici accademici in tutti gli Stati Uniti. Stiamo anche esaminando il lavoro dei governi federali e statali sugli standard dell’IA per arricchire ulteriormente le nostre conoscenze”.
Mossa n. 4: diffondere le pratiche e gli insegnamenti al resto dell’organizzazione
Nel panorama in rapida evoluzione dell’IA, promuovere un ambiente di apprendimento e condivisione può migliorare la consapevolezza e mettere i dipendenti in condizione di contribuire allo sviluppo responsabile dell’IA. Tuttavia, le organizzazioni devono anche affrontare la sfida a breve termine di aggiornare la forza lavoro sugli sviluppi dell’IA che hanno un impatto sull’azienda oggi. L’azienda farmaceutica Bristol-Meyers-Squibb (BMS) ha creato una comunità auto-organizzata chiamata “AI Collective”. I membri si sono incontrati regolarmente a intervalli di 4-6 settimane per scambiare idee e approfondimenti su come far progredire i progetti di IA all’interno dell’azienda, discutere le ultime tendenze, i benchmark, le best practice e i casi d’uso più interessanti. “Il collettivo è un’iniziativa dal basso verso l’alto che promuove l’innovazione attraverso l’apprendimento tra pari e le conversazioni guidate da esperti. Riteniamo che sia più efficace di un approccio dall’alto verso il basso. Dà agli esperti maggiore autonomia e opportunità di crescita”, ha dichiarato Miguel Crespo, Digital and IT Risk Officer.
Azioni chiave: definizione delle priorità e scalabilità
Condurre l’analisi delle parti interessate e la definizione delle priorità dei ruoli: quando le risorse sono limitate e la necessità di un impatto immediato è elevata, diventa fondamentale concentrarsi sui ruoli chiave che influenzano maggiormente lo sviluppo dell’IA. Un primo passo pratico è quello di condurre un’analisi degli stakeholder per identificare i ruoli con il maggiore impatto sullo sviluppo dell’IA e sull’applicazione etica. Analizzando il panorama degli stakeholder, SwissPost ha individuato nei project manager con capacità di analisi il fulcro del successo delle proprie iniziative di IA. Di conseguenza, l’organizzazione ha preso la decisione strategica di dare priorità alla formazione sull’etica dell’IA per queste persone chiave, assicurando che coloro che sono maggiormente coinvolti nella direzione dei progetti di IA siano dotati delle conoscenze necessarie per gestire efficacemente le considerazioni etiche.
Creare un kit di strumenti di scala: la fornitura di risorse pratiche per la condivisione di pratiche di IA responsabile può essere ottenuta attraverso lo sviluppo di un kit di strumenti per la diffusione dell’IA responsabile. L’azienda industriale francese Thales ha creato una serie di strumenti ricercabili e adattabili che le diverse divisioni dell’organizzazione possono utilizzare per implementare pratiche di IA responsabile. Il toolkit conteneva informazioni sulle pratiche di IA responsabile, consigli per l’implementazione, materiale di comunicazione e casi di studio progettati per assistere i team locali di IA. Offriva inoltre consigli su come personalizzare le pratiche di IA responsabile per soddisfare le esigenze locali. Il toolkit ha definito un insieme di pratiche fondamentali che possono essere adattate alle esigenze locali.
Sebbene molte organizzazioni abbiano fatto passi avanti nello sviluppo dei principi dell’IA, la vera sfida consiste nell’incorporare questi principi nel tessuto delle operazioni quotidiane. I leader, in particolare quelli che ricoprono ruoli non tecnici, sono determinanti in questo processo, sostenendo risorse pratiche, promuovendo una cultura che valorizzi l’IA etica e assicurando che le pratiche di IA responsabile siano un aspetto fondamentale del processo decisionale.
Michael Wade è professore di Innovazione e strategia e direttore del Global Center for Digital Business Transformation della IMD Business School. È coautore di ALIEN Thinking: The Unconventional Path to Breakthrough Ideas (PublicAffairs, 2021). Tomoko Yokoi è ricercatrice e consulente in materia di trasformazioni digitali presso l’IMD Business School e il Politecnico di Zurigo. È coautrice di Hacking Digital: Best Practices to Implement and Accelerate Your Business Transformations.