ETICA DEGLI AFFARI

Pensiamo all'etica delle nuove tecnologie... prima che sorga un problema

Beena Ammanath

Novembre 2021

Pensiamo all'etica delle nuove tecnologie... prima che sorga un problema

Image Source/Getty Images

Tutti vogliamo che la tecnologia nelle nostre vite mantenga la sua promessa - che ci soddisfi più di quanto non ci spaventi, che ci aiuti più di quanto ci danneggi. Sappiamo anche che ogni nuova tecnologia deve guadagnarsi la nostra fiducia. Troppo spesso il modello funziona così: una certa tecnologia viene introdotta, cresce rapidamente, arriva a permeare le nostre vite e solo allora la società comincia a vedere e ad affrontare i problemi che potrebbe creare.

Questo non è un fenomeno esclusivamente moderno. Consideriamo i primi giorni della produzione in serie dell'automobile. Quando i guidatori hanno deciso di adottare la nuova ed eccitante modalità di trasporto, gli incidenti, anche mortali, hanno preso a verificarsi forse con maggiore frequenza di oggi. Immaginate se, invece, la diffusione dell'auto fosse andata diversamente, accompagnata dallo sviluppo delle cinture di sicurezza, dalla costruzione di strade più sicure e dall'introduzione tempestiva di migliori leggi sul traffico, insieme alle innovazioni del motore che ci hanno dato più potenza e maggiore velocità. Molti rischi avrebbero potuto essere mitigati e molte tragedie evitate.

Le aziende devono imparare ad amministrare in modi responsabili l'intelligenza artificiale (IA) che distribuiscono, le reti 5G che si stanno costruendo così come tutte le altre innovazioni che stanno arrivando, dal calcolo quantistico alla realtà virtuale (VR) alla blockchain. Le tecnologie che stanno determinando un cambiamento radicale, e sono centrali per la crescita dell'economia, dovrebbero essere affidabili. Le aziende che generano progressi tecnologici devono agire in modo etico. La posta in gioco è alta. Eppure, sapere cosa deve essere fatto non equivale a sapere come farlo.

Le organizzazioni dovrebbero cercare di anticipare e affrontare i potenziali effetti delle tecnologie che impiegano. Anche se non possono prevedere il futuro, possono adottare una solida struttura che le aiuti a prepararsi e a rispondere ad eventuali impatti inattesi.

Un’impostazione simile dovrebbe indurre a cambiare radicalmente il modo in cui sviluppiamo e distribuiamo le nuove tecnologie. Dovrebbe rinnovare i processi esistenti. Qualsiasi ipotesi dovrebbe far riflettere che stiamo affrontando uno sforzo di squadra, non solo il lavoro di ingegneri e manager: un lavoro di gruppo che dovrebbe coinvolgere tutte le discipline e che dovrebbe aprire le porte a nuovi modi di pensare alle sfide. L'obiettivo di questo articolo è di descrivere una struttura che permetta di fare queste cose.

 

Coinvolgere gli specialisti

Coloro che sono immersi nel mondo dell'ingegneria del software - e io mi annovero in questo gruppo - sono spesso inclini a vedere, prima di tutto, le promesse insite in una nuova tecnologia e l'opportunità di creare valore. Quando si tratta, invece, di domande sugli impatti di una tecnologia, gli ingegneri hanno ancora molta strada da fare per capire quali potrebbero essere i danni potenziali. Gli ingegneri e gli sviluppatori di software non hanno necessariamente tutte le competenze necessarie per capire e affrontare i rischi etici che il loro lavoro potrebbe generare.

Questo è, dunque, un ambito in cui potrebbe essere definito un ruolo per specialisti di altre discipline. Dobbiamo cambiare le nostre priorità per aiutare i team di sviluppo tecnologico a pensare a questi temi con maggiore lungimiranza e maggiori sfumature, guidati da coloro che hanno le conoscenze più rilevanti.

Consideriamo, per esempio, lo sviluppo di uno strumento di addestramento mediante realtà virtuale, che immerge l'utente in una situazione di forte o drammatica emergenza. Con l'evoluzione della tecnologia, le simulazioni VR stanno diventando così realistiche che potrebbe essere necessario affrontare la possibilità di un trauma reale provocato da un'esperienza virtuale. In un caso come questo, il team dovrebbe avere la disponibilità di uno psicologo che lavorasse fianco a fianco con gli ingegneri del software per attingere a quel corpo di conoscenze che permette di anticipare ciò che può causare il trauma o come si potrebbe identificarlo e affrontarlo.

Prendiamo, per esempio, il cloud manufacturing e la stampa 3-D. Mentre le aziende prendono a utilizzare queste tecnologie, che hanno il potenziale di cambiare drasticamente l'insieme di competenze necessarie in fabbrica, potrebbero parlare con gli economisti del lavoro che possono mettere in luce questioni più ampie relative ai lavoratori. La connettività basata sul 5G è in grado di far sì che le fabbriche online possano essere gestite interamente da remoto, ma le aziende potrebbero volersi consultare con specialisti di sicurezza degli impianti, di cybersecurity e forse anche di filosofia, per capire le potenziali insidie che si creano in fabbriche che non impiegano direttamente le persone.

 

Pausa e pianificazione

Nel corso della fase di pianificazione strategica, vi è una naturale tendenza a concentrare l’attenzione su ciò che è possibile realizzare. È normale perché è lì che si trovano motivi di eccitazione e di entusiasmo. Ma bisogna anche prestare attenzione per cercare di capire cosa può andare storto. È vitale fermarsi a riflettere sui potenziali rischi, considerare possibili risultati negativi e immaginare eventuali conseguenze indesiderate.

Questo potrebbe significare che, mentre le aziende accelerano l’introduzione del 5G, che permette un salto gigantesco nella velocità dei dati e nella connettività, dovrebbero anche affrontare le nuove preoccupazioni relative alla privacy - forse ben oltre quelle con cui siamo già alle prese. Oppure potrebbero considerare come questo salto di velocità dei dati possa esacerbare le diseguaglianze nella nostra società, allargando il divario digitale.

Questo passo nel processo di pianificazione, in cui si prendono in considerazione e si analizzano i rischi, dovrebbe essere documentato tanto chiaramente quanto la proposta di valore o il ritorno atteso dell'investimento. Rendere obbligatorio documentare questo lavoro può aiutare a garantire che diventi parte dello sforzo di innovazione. Deloitte ha sviluppato più di 300 domande che esplorano le dimensioni etiche e di fiducia che possono dare forma al processo di pianificazione strategica e ai suoi risultati.

La tendenza è quella di pensare all'etica tecnologica nel contesto delle questioni che sono già emerse, come i pregiudizi discriminatori nel marketing dei social media o nei sistemi di acquisizione dei talenti.  Ma questo è un modo errato di pensare, perché può farci smettere di vedere altri rischi etici, potenzialmente molto più grandi, e non riesce a considerare le sfumature che attraversano organizzazioni, industrie, clienti e prodotti.

Dopo aver valutato i potenziali impatti negativi di una particolare nuova tecnologia e aver costruito un team di rilevante esperienza, è importante andare ancora più a fondo. Il team deve fare la ricerca, e da lì, dovrebbe essere possibile iniziare a stabilire i guardrail in grado di minimizzare i rischi e mitigare i danni potenziali. I leader dovrebbero promuovere lo sviluppo di strategie di mitigazione del rischio etico come parte della pianificazione di qualsiasi nuovo progetto tecnologico.

 

Assegnare la responsabilità

Un altro elemento di chiarezza può consistere nel definire fin dall'inizio chi sarebbe responsabile se un'organizzazione dovesse rispondere delle conseguenze negative non volute della sua nuova tecnologia. Tale responsabilità dovrebbe essere presa in considerazione nel corso del processo di pianificazione strategica, quando si inizia a preparare la documentazione iniziale sui potenziali impatti.

Quando un'azienda è chiamata a rispondere della tecnologia che ha sviluppato o distribuito, qualcuno potrebbe dover testimoniare di fronte al Parlamento, comparire in tribunale o rispondere alle domande dei media. Quella persona sarà il CEO o il CIO, uno scienziato dei dati, un fondatore o qualcun altro?

Una discussione su questo argomento avrebbe il merito di incoraggiare un pensiero più rigoroso su ciò che potrebbe andare storto. Naturalmente, un'attenzione più rigorosa a questi esiti negativi è esattamente il punto - e può migliorare le possibilità che nessuno debba mai apparire davanti ai politici o a un giudice per chiarire come è nata una certa innovazione tecnologica.

 

Nominare un responsabile dell'etica tecnologica

I metodi migliori per affrontare l'etica delle nuove tecnologie non saranno mai uguali per tutti. Potrebbe essere necessario esaminare un'ampia gamma di impatti potenziali e mitigare un insieme variegato di rischi possibili. Ma la maggior parte delle organizzazioni probabilmente trarrebbe beneficio dal mettere un singolo individuo a capo di questi processi. Questo è il motivo per cui le organizzazioni dovrebbero considerare la nomina di un chief ethics officer - o un chief technology ethics officer - che avrebbe sia la responsabilità che l'autorità per raccogliere le risorse necessarie.

Alcuni settori stanno affrontando da decenni le sfide relative alla fiducia e all'etica. Per esempio, gli ospedali e i centri di ricerca hanno impiegato a lungo funzionari etici per supervisionare le questioni nei progetti di ricerca e nella pratica medica clinica. La tecnologia può certamente generare anche qui nuove preoccupazioni: pensate a una scuola di medicina che implementa uno strumento VR per aiutare ad aumentare la competenza dei chirurghi e l'importanza di esaminare se lo strumento funziona ugualmente bene quando sono in ballo situazioni diversificate, di razza o di genere. Ma il punto più rilevante che la fiducia e le questioni etiche possono essere gestite in modo efficace solo a condizione che la leadership si assuma gli impegni adeguati.

Quando viene introdotto in azienda un chief technology ethics officer, rimane poi importante coinvolgere specialisti di diverse discipline, come accennato in precedenza. Persone che possono provenire da campi diversi come antropologia, sociologia, filosofia e altre aree. A seconda dei problemi presentati da una specifica tecnologia o applicazione, può essere necessario cercare persone che portino conoscenze di legge, politica, regolamentazione, istruzione o media.

 

Sfide e opportunità

Possiamo prevedere che la nostra capacità di gestire eticamente e aumentare la fiducia nei nostri strumenti tecnologici diventerà sempre più importante nei prossimi anni, dato che la tecnologia si evolve, accelera e penetra sempre più profondamente nelle nostre vite. Questo probabilmente metterà alla prova ogni azienda e ogni business, e potrebbe impartire lezioni dolorose per le organizzazioni che non riescono a tenere il passo.

Ma anche le opportunità sono ovunque. Se riuscite a immaginare un mondo in cui la sicurezza dei veicoli e del traffico progredisse alla stessa velocità, o più velocemente, dello sviluppo dell'automobile, allora potete probabilmente immaginare i benefici che potrebbero derivare per coloro che sapranno affrontare bene queste sfide.

Questo articolo gratuito fa parte di una serie realizzata allo scopo di contribuire allo sforzo di far fronte alle conseguenze della pandemia. Se avete apprezzato questi articoli, considerate un abbonamento a Harvard Business Review Italia. È il modo migliore per aiutarci a rafforzare l’iniziativa.

Beena Ammanath è il direttore esecutivo del Deloitte AI Global Institute, fondatrice dell’iniziativa non-profit, Humans For AI, ed è anche a capo dell’unità Trustworthy and Ethical Tech di Deloitte. Fa parte del comitato consultivo del Cal Poly College of Engineering.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Edizione Digitale

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia