INNOVAZIONE

Nell’era dell’intelligenza artificiale il giudizio critico è un vantaggio competitivo

Elisa Farri, Paolo Cervini, Gabriele Rosani

Settembre 2023

Nell’era dell’intelligenza artificiale il giudizio critico è un vantaggio competitivo

Richard Ross/Getty Images

NON MOLTO TEMPO FA l’intelligenza artificiale era considerata dominio di una élite di esperti e di scienziati dei dati. Le aziende parlavano con entusiasmo del suo potenziale di trasformazione del business, ma solo una frazione dei dipendenti vi aveva effettivamente accesso. Con l’avvento dell’intelligenza artificiale generativa, le cose sono cambiate: improvvisamente tutti sono diventati potenziali sviluppatori grazie a strumenti come ChatGPT di OpenAI, Bard di Google o Claude 2 di Anthropic. Mentre facciamo questi avanzamenti tecnologici, c’è però una capacità fondamentale di cui ogni organizzazione avrà bisogno per realizzare il vero potenziale dell’intelligenza artificiale nel lungo periodo: il giudizio critico.

La centralità del giudizio critico nell’era dell’intelligenza artificiale era un cardine del lavoro del nostro compianto collega e amico Alessandro Di Fiore. Alessandro credeva nel mettere l’uomo al centro e considerava la tecnologia un modo per aiutare le persone ad aumentare la propria creatività, autonomia e pensiero critico. In qualità di collaboratore frequente di HBR (ed ex presidente di Harvard Business Review Italia) ha spesso riflettuto su come innovazione, leadership e intelligenza artificiale vadano di pari passo. Già in un suo articolo del 2018, sosteneva come il giudizio critico sarebbe diventato cruciale più di qualsiasi altra abilità tecnica con l’aumentare dell’accessibilità degli strumenti di intelligenza artificiale.

Per Alessandro il giudizio critico sarebbe stato il vero vantaggio competitivo per le organizzazioni una volta che i sistemi di intelligenza artificiale fossero divenuti il nuovo standard operativo aziendale. Un suo rafforzamento con della semplice formazione non sarebbe stato da solo sufficiente; le aziende avrebbero dovuto ripensare radicalmente il modo in cui è esercitato il giudizio critico dei dipendenti per adattarsi al ritmo del cambiamento. In particolare, Alessandro considerava essenziali tre aspetti:

 

Accesso

L’accesso è riferito a chi ha l’autorità o il permesso di esercitare un giudizio. Da sostenitore della democratizzazione del giudizio per tutti i dipendenti, Alessandro sapeva che prendere delle buone decisioni non era qualcosa di limitato ai vertici aziendali. Infatti, dal momento che la conoscenza, i dati e le tecnologie sono oggi distribuiti in modo più ampio, anche il giudizio deve esserlo.

Le aziende devono capire come sfruttare e gestire l’intelligenza artificiale generativa. Cercare di vietarne l’accesso, come alcune aziende stanno facendo, alla fine si rivelerà uno sforzo inutile. Invece, è necessario garantire che i dipendenti abbiano pieno accesso a tutti i modi in cui possono creare valore con questi strumenti, anche se ovviamente questo deve avvenire in modo sicuro e controllato. Questo richiede fiducia e comunicazione. Del resto, i leader dovrebbero considerare che un numero crescente di nuovi casi d’uso e pratiche sono destinati a emergere dal basso piuttosto che dall’alto.

 

Esercizio del giudizio

L’esercizio del giudizio è riferito all’atto o al processo di decisione e formazione di un’opinione. Alessandro considerava il giudizio critico come un processo continuo piuttosto che un singolo momento:

“il giudizio non si esercita solo nel momento in cui si prende una decisione valutando dati e informazioni. Il giudizio è più ampio e inizia con il porre le domande giuste, inquadrare il problema, valutare il contesto più ampio. Il giudizio è co-creativo, è un viaggio”.

Questa interpretazione del giudizio critico risulta ancora più vera oggi. L’ascesa dell’intelligenza artificiale generativa espande il giudizio oltre le decisioni discrete: ora è un processo collaborativo. Infatti, con i chatbot basati sull’intelligenza artificiale, l’importanza delle interazioni contestuali è evidente: il giudizio critico emerge attraverso il dialogo integrato uomo-macchina, non attraverso sfere separate. Il nostro recente esperimento con ChatGPT su come l’intelligenza artificiale generativa può migliorare 10 pratiche di management ne è un esempio calzante. In un intenso dialogo con ChatGPT, abbiamo dovuto esercitare la nostra capacità di giudizio prima, durante e dopo le raccomandazioni della macchina, inserendo il giusto contesto, creando la migliore catena di prompt e interpretando attentamente l’output generato dal sistema. L’esperimento ha confermato l’intuizione di Alessandro: i migliori risultati nascono all’intersezione tra l’intelligenza umana e quella artificiale. Il futuro del buon giudizio critico è questo processo di co-creazione simbiotico. Un simile cambiamento impone una trasformazione dei modelli operativi e una riqualificazione delle persone, dotando i lavoratori di una maggiore capacità di giudizio critico, cosi essenziale per la nuova era dell’intelligenza artificiale.

 

Controllo

Il controllo si riferisce ai sistemi o ai processi in atto per supervisionare o verificare le decisioni. I metodi tradizionali di controllo stanno rapidamente diventando obsoleti. Una supervisione stretta dall’alto verso il basso può soffocare l’agilità in questo nuovo paradigma. Tuttavia, un’autonomia totale e illimitata comporta rischi significativi se i principi etici di sviluppo e implementazione dell’IA non sono ben radicati in tutte le organizzazioni.

La soluzione si compone di due parti: in primo luogo, costruire fiducia e responsabilità nel sistema con un codice etico per un utilizzo giusto, sicuro e sostenibile e per impedire che i modelli di intelligenza artificiale producano informazioni inaccurate o generino risposte che contraddicono i valori della vostra azienda; in secondo luogo, fornire formazione agli utenti su come impostare il giusto contesto per il processo decisionale. Questo implica spiegare i limiti e le linee guida interpretative e inquadrare le richieste in modo responsabile. Piuttosto che concentrarsi sulla supervisione e autorizzazione di ogni singola decisione, la leadership dovrebbe concentrarsi sul conferire ai lavoratori queste competenze a tutti i livelli.

In questa visione, il controllo si trasforma da mera burocrazia a promozione di una responsabilità collettiva. Come scriveva Alessandro, “i leader hanno in prima persona il dovere di creare il contesto e le condizioni giuste per consentire ai dipendenti di prendere decisioni più autonome con l’aiuto di dati e tecnologie. Dare loro più libertà è giusto. Ma aiutarli a esercitare la loro libertà è ancora più cruciale”.

Mentre l’intelligenza artificiale rimodella la nostra società, la visione di Alessandro ci ricorda la necessità di rafforzare il giudizio critico delle persone. La sua eredità rimane una costante fonte di ispirazione mentre lavoriamo verso un futuro in cui gli esseri umani e le tecnologie possano collaborare insieme in modo virtuoso, favorendo l’innovazione e il progresso.

E il futuro resta nostro e dobbiamo modellarlo attraverso una visione, un’etica e un’innovazione responsabile.

 

Elisa Farri è co-responsabile del Management Lab di Capgemini Invent. È stata inserita nel Thinkers50 Radar Class del 2023. In precedenza, Elisa è stata ricercatrice presso il centro di ricerca HBS in Francia. Paolo Cervini è co-responsabile del Management Lab di Capgemini Invent. È stato inserito nel Thinkers50 Radar Class del 2023. In precedenza, Paolo è stato Content Coordinator presso HBR Italia. Gabriele Rosani è direttore dei contenuti e della ricerca presso il Management Lab di Capgemini Invent ed è stato founding member di European Center for Strategic Innovation.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia