CONSIGLI DI AMMINISTRAZIONE

Come i CdA più avanzati usano l’IA

La mettono a disposizione dei consiglieri per aiutarli a prepararsi a discutere e prendere decisioni

Stanislav Shekshnia, Valery Yakubovich

Settembre 2025

Come i CdA più avanzati usano l’IA

 

Nel 2014 la Deep Knowledge Ventures di Hong Kong nominò ufficialmente consigliere di amministrazione un algoritmo, conferendogli il diritto di voto sulle decisioni di investimento della società di venture capital. All’epoca, la nomina era stata considerata uno scherzo.

L’algoritmo si limitava ad analizzare i dati quantitativi secondo parametri stabiliti da esperti umani per produrre una raccomandazione di base che il CdA poteva poi discutere. Era un valido ausilio, perché più rapido di un analista umano, ma pochi osservatori ritenevano che gli amministratori virtuali sarebbero diventati un fenomeno diffuso.

A distanza di un decennio, si potrebbe pensare che, grazie agli straordinari progressi compiuti nell’apprendimento automatico, le opinioni sull’importanza dell’IA in sala riunioni siano mutate. Nel complesso, però, non è andata così. Nel 2024, tra giugno e settembre, abbiamo organizzato vari focus group ai quali hanno partecipato più di cinquanta presidenti e vicepresidenti di CdA e presidenti di comitati di aziende pubbliche e private in Europa, Asia e Nordamerica, fra cui ASM, Lazard, Nestlé, Novo Nordisk, Randstad, Sandoz e Shell. Quando abbiamo chiesto ai partecipanti di classificare le varie tematiche che richiedono la loro attenzione in ordine di importanza, l’IA si è collocata relativamente in basso, ben al di sotto di questioni come il contesto globale e l’interazione con il CEO o gli azionisti di rilievo. La maggior parte ha riferito di fare un uso occasionale dell’IA per esigenze personali, ma mai o solo di rado per svolgere le proprie mansioni professionali. Come ha detto un presidente: «Non mi è mai passato per la testa di usare l’IA per prepararmi a una riunione del CdA».

Alla luce dei recenti sviluppi nelle tecnologie basate sull’IA, tuttavia, e con la crescente diffusione delle persone virtuali quali interfacce commerciali, l’idea di un bot IA che partecipi alle discussioni del CdA non sembra più uno scherzo. E, sebbene molti partecipanti ai focus group fossero scettici riguardo all’uso dell’IA nello svolgimento delle loro mansioni di consiglieri, un numero significativo ha descritto la propria esperienza di impiego dell’IA come positiva. Per esempio, uno di essi adopera sistematicamente un modello linguistico di grandi dimensioni (LLM) per reperire informazioni supplementari sull’azienda, i concorrenti e i temi all’ordine del giorno del CdA. Un altro formula le questioni da discutere con l’ausilio dell’IA e un terzo usa ChatGPT durante le riunioni per verificare le ipotesi e generare alternative alle proposte presentate dal gruppo dirigente.

Nelle pagine seguenti spiegheremo come i consiglieri di amministrazione possono usare l’IA per migliorare la loro capacità di individuare e gestire i rischi e le opportunità strategiche. Esamineremo alcuni dei rischi normalmente associati all’IA e spiegheremo come attenuarli. Infine, illustreremo un processo adattativo di apprendimento attraverso la pratica per rendere l’IA parte integrante delle deliberazioni del CdA.

 

RACCOGLIERE I FRUTTI

Quasi tutti i presidenti e i consiglieri di alto livello dei CdA che hanno partecipato ai nostri focus group hanno riconosciuto senza indugi l’utilità dell’intelligenza artificiale come strumento di produttività individuale: consente di automatizzare le operazioni di routine, come la calendarizzazione e la stesura dei verbali. Hanno anche riconosciuto il suo ruolo cruciale nelle attività operative aziendali, dall’interfacciamento con i clienti al dettaglio alla gestione di una linea di laminazione dell’acciaio. Solo un numero relativamente ristretto ha, tuttavia, ritenuto che l’IA possa aiutarli a prepararsi a partecipare a discussioni sostanziali, ben fondate e strategicamente mirate con i dirigenti aziendali e i colleghi consiglieri. È un grave errore: l’IA può contribuire alle attività dei CdA in tre modi.

Assistere i singoli consiglieri. I consiglieri di amministrazione non sono attivi a tempo pieno: di solito si riuniscono solo quattro volte l’anno e spesso siedono in più CdA, ma prendono decisioni fondamentali per le organizzazioni che gestiscono. Uno studio condotto in 17 paesi europei tra il 2016 e il 2020 ha infatti rivelato che il divario informativo tra amministratori e dirigenti comporta serie difficoltà per i consigli di amministrazione.

Da sempre i presidenti di CdA cercano di colmare tale divario adottando vari provvedimenti. Organizzano visite in loco in concomitanza delle riunioni del consiglio, prevedono incontri tra gli amministratori e i dipendenti e creano sottocomitati incaricati di approfondire questioni specifiche. Inoltre, chiedono alla dirigenza di preparare relazioni supplementari e si accertano che i consiglieri interagiscano regolarmente con i principali dirigenti, consulenti e revisori dei conti esterni. In vista di ogni riunione, il presidente in carica fa preparare un’informativa contenente dati e informazioni di rilievo che possono aiutare i consiglieri a discutere i punti all’ordine del giorno.

Nonostante tutti questi sforzi, è inevitabile che gli amministratori non esecutivi siano distanti dalle attività operative e dispongano di un tempo limitato, e che di conseguenza abbiano difficoltà ad assorbire la gran mole di informazioni disponibili. L’IA può venire in aiuto. Se adeguatamente addestrato, un LLM come ChatGPT è in grado di analizzare grandi quantità di dati e individuare andamenti e tendenze di rilievo che potrebbero non risultare visibili nelle analisi condotte manualmente dagli amministratori. Il modello può assicurare il monitoraggio continuo di vari rischi e fornire avvisi tempestivi, favorendo una gestione proattiva dei rischi stessi. Soprattutto, è in grado di condensare tutte quelle informazioni in formati di facile lettura, riducendo il tempo e la fatica richiesti ai consiglieri per elaborarle.

Alcuni partecipanti ai focus group ne erano già consapevoli. Due anni fa Britt, un’amministratrice non esecutiva che siede in cinque CdA in Danimarca, ha iniziato a usare ChatGPT per analizzare e strutturare le presentazioni alla dirigenza, individuare parametri di riferimento, formulare quesiti per il CdA ed effettuare simulazioni. Secondo Britt, che definisce ChatGPT «il mio sparring partner», l’uso di questo strumento ha notevolmente migliorato il suo livello di preparazione per le riunioni e la sua comprensione del contesto organizzativo, riducendo al contempo il carico di lavoro. (Tutte le persone citate hanno nomi di fantasia). Alexander, presidente di due CdA in Svizzera, prima delle riunioni immette le sue informative in ChatGPT per generare spunti di discussione e opzioni decisionali e poi avvia una conversazione con lo strumento per affinarle.

Fornire migliori informazioni all’intero CdA. La maggior parte dei consiglieri che conosciamo ha un debole per la pianificazione di scenari. Come hanno osservato molti esperti, condurre le discussioni strategiche inquadrandole in possibili scenari e relativi esiti futuri è spesso molto più produttivo che condurle alla luce della situazione attuale. Ciononostante, abbiamo visto pochi CdA eseguire una vera e propria pianificazione e analisi degli scenari. Quasi tutti i presidenti giustificano l’omissione affermando che l’esercizio sarebbe troppo complesso e che le risorse del consiglio sono limitate.

L’IA può rimediare al problema, perché impiega molto meno tempo di un team di esperti umani a individuare e valutare potenziali mutamenti nelle variabili di fondo e a stimarne il probabile effetto sul valore dell’azienda. (Uno studio recente dimostra che è proprio questo il modo in cui gli LLM migliorano le prestazioni umane nelle attività di previsione.) Gerhard, presidente di un CdA in Austria, ha fornito questo esempio: un anno prima, la dirigenza aveva proposto un’acquisizione in Europa orientale e uno dei consiglieri aveva chiesto a un LLM di produrre tre scenari relativi al paese in cui era ubicata l’attività in questione. Dopo averli esaminati, gli amministratori avevano ritenuto che l’investimento fosse superiore alla loro propensione al rischio e avevano quindi respinto la proposta. Il risultato più importante, tuttavia, è che in seguito a quella riunione la dirigenza presenta sempre un’analisi degli scenari a sostegno delle sue proposte.

In un contesto economico in continua evoluzione, la capacità di pianificazione e analisi di scenari riveste importanza cruciale per le aziende. Le strategie di adattamento richiedono una gran mole di sperimentazione, mediante la quale le imprese generano nuovi dati che possono convalidare (o smentire) le loro ipotesi strategiche. L’IA può contribuire a individuare gli esperimenti promettenti e ridurre i costi della loro esecuzione. Le tecnologie alla base dei gemelli digitali, per esempio, consentono di effettuare simulazioni robuste dei risultati quando si introducono cambiamenti nelle variabili di un modello. Il CdA di un’impresa siderurgica si è servito di simulazioni generate dall’IA per decidere se investire in uno stabilimento di produzione esistente o costruirne uno nuovo in un’altra area geografica. (Ha scelto la seconda alternativa.)

Alcuni consigli di amministrazione usano l’IA come banco di prova delle loro decisioni. Juho, presidente del CdA di una società privata finlandese che ha partecipato a un focus group, ha descritto come se ne sono serviti i consiglieri durante un ritiro aziendale nel 2024. Per due giorni gli amministratori e gli alti dirigenti hanno esaminato la direzione verso cui si orientava l’azienda nell’ambito di una discussione semi strutturata dedicata all’analisi di vari scenari. Concluso il dibattito, hanno fornito a ChatGPT le loro conclusioni preliminari e gli hanno chiesto di selezionare l’opzione migliore. Il modello ha prodotto risposte simili a quelle formulate dal CdA e dalla dirigenza. Secondo Juho, l’esercizio ha avuto un duplice effetto positivo: ha confermato il buon lavoro svolto dai consiglieri e la credibilità dell’intelligenza artificiale. Per il futuro, prevede di fare un più ampio uso degli strumenti basati sull’IA.

Catherine, presidente di un CdA nei Paesi Bassi, ha fatto un uso analogo del programma Claude 3.7 Sonnet, basato sull’IA. Ha fornito al modello informazioni liberamente accessibili e gli ha sottoposto le stesse questioni esaminate dal consiglio di amministrazione durante un ritiro collegiale di un giorno. Claude ha confermato tre delle quattro conclusioni del CdA. Il consiglio ha poi dedicato altro tempo all’esame della quarta conclusione e si è infine attenuto alla propria decisione iniziale. In sostanza, l’IA impiega molto meno tempo a individuare i problemi che richiedono ulteriori analisi. Interagendo con l’IA, gli amministratori possono inoltre migliorarne le prestazioni attraverso il Reinforcement Learning with Human Feedback (RLHF), una tecnica che utilizza il feedback umano per ottimizzare direttamente il modello e la qualità dei risultati e per integrare la conoscenza tacita che in molti casi non figura nei documenti scritti dell’azienda.

L’intelligenza artificiale può anche analizzare le procedure del CdA. I consiglieri di amministrazione di un’impresa industriale svizzera la usano per analizzare le dinamiche di gruppo, il tempo di parola e il tono della conversazione durante le riunioni. Lo strumento fornisce poi raccomandazioni a fini di miglioramento. In seguito a una riunione, ha raccomandato al CdA di «iniziare la riunione concedendo a ogni consigliere due minuti per esporre le proprie aspettative e preoccupazioni», «ridurre del 20% il tempo dedicato alle presentazioni della dirigenza», «concedere più tempo di parola ai consiglieri X e Y, ridurre quello del consigliere Z» ed «evitare l’uso di espressioni come “ma per favore!” e “che cavolata”».

Entrare a far parte del CdA. Il passo logico successivo è far sì che l’IA partecipi attivamente alle discussioni del consiglio di amministrazione, e in alcuni casi sta già accadendo. Nel 2024 la IHC, la maggiore società quotata in borsa degli Emirati Arabi Uniti, ha nominato Aiden Insight, una persona virtuale, “osservatore del CdA”. Aiden Insight non ha diritto di voto, ma la sua partecipazione alle discussioni del CdA dell’IHC è registrata nei verbali ufficiali.

Aiden è stato creato dalla G42, una società di IA e cloud computing di Abu Dhabi. Nel marzo del 2024 la G42 ha lanciato il suo BoardNavigator, uno strumento che associa dati specifici dell’azienda alle capacità di un LLM per prepararsi a partecipare alle riunioni del CdA. Il programma ascolta le conversazioni dal vivo, individua i punti chiave della discussione e fornisce informazioni e raccomandazioni. Può produrre dati pertinenti, suggerire soluzioni specifiche e introdurre nuovi quadri di riferimento in tempo reale, arricchendo così il dialogo tra gli amministratori.

Aiden e altri strumenti analoghi ovviamente non sono perfetti. A causa dell’assenza di emozioni e di consapevolezza situazionale, è difficile che programmi come ChatGPT e altri simili possano partecipare alla riunione senza ricevere istruzioni esplicite. Hanno difficoltà a motivare le raccomandazioni che producono e a rispondere alle contestazioni, e questo può essere il motivo per cui in molti casi suggeriscono agli amministratori di votare sulle questioni conflittuali, una mossa che può soffocare il dibattito e creare conflitti (ragion per cui i presidenti avveduti ricorrono di rado a questa tattica). Questi limiti possono essere dovuti alle protezioni inserite in fase di programmazione per prevenire un comportamento distruttivo; in tal caso, è improbabile che vengano disimparati.

Questo ci porta alla prossima domanda: quali sono i rischi associati all’IA e come si possono attenuare?

 

GESTIRE I RISCHI

Chi più chi meno, tutti siamo stati condizionati a temere l’intelligenza artificiale e, di conseguenza, tendiamo a ingigantire i rischi associati al suo impiego. I rischi certamente esistono, ma sono in gran parte relativamente facili da gestire. Esaminiamo i timori citati con maggiore frequenza nei nostri focus group.

Fughe di informazioni. La maggior parte dei partecipanti indica la fuga di informazioni sensibili come uno dei maggiori rischi associati all’uso dell’IA. Come ha spiegato il vicepresidente di un CdA: «Oggi fornisco a ChatGPT la mia informativa e domani la concorrenza saprà quali cambiamenti strategici stiamo valutando». Il presidente di due CdA ha confermato questo timore, osservando: «Per essere efficace, l’IA ha bisogno di un’enorme quantità di dati, quindi utilizzarla equivale a rendere le nostre riunioni aperte al pubblico. Non ho alcuna intenzione di permettere che questo accada». La fuga di informazioni, però, non è dovuta all’uso dell’intelligenza artificiale: è un rischio legato al modo in cui le informazioni vengono conservate e consultate, ed esisteva già ben prima dell’ampia diffusione di strumenti basati sull’IA. In più, sappiamo già come gestirlo: le aziende creano continuamente protezioni software e stabiliscono regole procedurali per consentire l’accesso ai dati sensibili alle persone che ne hanno necessità rendendoli inaccessibili a chi non ne ha bisogno. La maggior parte delle aziende offre già ai dipendenti una formazione in materia di sicurezza dei dati e può facilmente estenderla agli amministratori.

I grandi produttori di sistemi di IA, come OpenAI, offrono gli LLM come servizio e garantiscono che i dati aziendali non vengano utilizzati per addestrare il modello fondativo. SAP, il colosso tedesco delle applicazioni aziendali e dei sistemi di IA per le imprese, sta compiendo ulteriori passi avanti utilizzando i modelli fondativi per crearne di più piccoli ed economici, che vengono addestrati esclusivamente con dati riservati, di proprietà del singolo cliente.

Pregiudizi insiti nei campioni. Un problema più serio è dovuto al fatto che le previsioni dell’IA sono influenzate dai dati con i quali viene addestrato il modello. Come ha detto il presidente di un CdA: «Vogliamo che l’IA ci aiuti a essere più indipendenti dalla dirigenza, ma come possiamo riuscirci se addestriamo il modello con informazioni che provengono esclusivamente dai manager?» Molti di noi hanno sentito parlare del chatbot razzista di Microsoft. Dietro lo shock provocato da quella storia si cela un’importante verità: le macchine riproducono i pregiudizi insiti nei dati utilizzati per il loro addestramento. Se un minor numero di persone nere riceve cure per determinate malattie, i dati aggregati raccolti su quelle malattie potrebbero non riflettere correttamente la probabilità che le persone nere le contraggano. Questo tipo di distorsione dei dati determina sistematicamente risultati scadenti a livello operativo: per esempio, diagnosi errate. Oppure, in campo finanziario, i pregiudizi insiti nei campioni inducono gli istituti di credito a negare prestiti alle donne o agli appartenenti a minoranze etniche.

Nel caso dei consigli di amministrazione, i pregiudizi insiti nei campioni possono determinare errori strategici. Per esempio, il CdA di un’impresa industriale europea aveva approvato una costosa strategia generale in materia di salute e sicurezza che la dirigenza aveva sviluppato dopo aver condotto sondaggi dei dipendenti e focus group a livello aziendale. Nel corso dei due anni successivi, il numero di incidenti riguardanti la salute e la sicurezza registrati in tutte le attività operative dell’impresa era notevolmente diminuito, ma nelle attività gestite dagli appaltatori, che in origine non erano stati inclusi nello studio della dirigenza, il numero di infortuni denunciati era aumentato.

Non c’è dubbio che le informazioni e le raccomandazioni fornite dagli strumenti di IA riproducono i pregiudizi insiti nei campioni. La tecnologia, tuttavia, offre già alcune garanzie. A livello di dati, le aziende possono ridurre rischi quali la discriminazione etnica e di genere effettuando verifiche periodiche dei dati e applicando protocolli per l’individuazione dei pregiudizi. La consapevolezza dei pregiudizi da parte dell’utente offre una protezione ancora maggiore. Con gli strumenti di IA, gli utenti possono esaminare la possibilità di ottenere risposte distorte, per esempio facendo svolgere analisi specifiche per individuare i pregiudizi etnici o di genere, purché esistano marcatori demografici adeguati.

Ancoraggio al passato. È un rischio che riguarda in particolare i consigli di amministrazione, i quali sono chiamati a prendere decisioni che possono (e tendenzialmente dovrebbero) cambiare la situazione attuale. Basandosi su raccomandazioni dell’IA fondate su dati relativi al passato, il CdA potrebbe essere condannato a ripetere gli errori storici. Quando i dati che riflettono un grande cambiamento intervenuto nel contesto competitivo vengono infine inclusi nell’analisi basata sull’IA, potrebbe essere troppo tardi per riportare l’azienda all’avanguardia.

Molti dirigenti a livello di CdA riconoscono questo pericolo e preferiscono fare maggiore affidamento su una valutazione istintiva dei dati. Come ci ha detto il CEO di un’azienda alimentare belga: «Faccio ampio uso dell’IA a fini di apprendimento, ma non mi baserei mai su questi strumenti per prendere una decisione strategica. La strategia riguarda il futuro e l’IA di questo non sa niente, anche se sa quasi tutto del passato. Il passato però non prevede il futuro». Aveva ragione, naturalmente, ma trascurava il fatto che anche il suo istinto si basa sulle esperienze precedenti ed è quindi altrettanto ancorato al passato.

Per allentare questo ancoraggio, un metodo efficace consiste nell’accertarsi che l’IA sia alimentata con i dati più aggiornati disponibili. Il problema si può attenuare anche scegliendo uno strumento di IA in grado di offrire spiegazioni causali. L’ultima generazione di LLM, i cosiddetti “modelli potenziati per il ragionamento”, rappresenta un’importante evoluzione rispetto a quelli precedenti: le risposte ai prompt vengono elaborate attraverso una serie di ragionamenti causali, al contrario delle previsioni basate su correlazioni. Se il modello tiene conto di una variabile il cui valore è superato o è diventato meno rilevante, il CdA può valutare la possibilità di riponderare o aggiornare la variabile. Per esempio, se uno strumento raccomanda una riduzione dei programmi di indebitamento perché il modello ipotizza un aumento dei tassi di interesse, il CdA potrebbe respingere la raccomandazione nel caso in cui un’analisi indipendente preveda un calo dei tassi.

I consigli di amministrazione possono anche proiettare uno strumento di IA nel futuro chiedendogli di svolgere analisi e simulazioni di scenari, come abbiamo visto nei punti precedenti. Dopo aver individuato i possibili cambiamenti nel contesto operativo, possono chiedere all’IA di simulare i possibili risultati sulla base delle variazioni specificate nelle ipotesi di fondo. Si può chiedere allo strumento di valutare la probabilità che quelle ipotesi subiscano variazioni e in quale direzione.

Come emerge da questa trattazione, sebbene esistano precauzioni tecnologiche che le aziende possono adottare per attenuare i rischi comportati dall’uso dell’IA, per gestirli a livello di CdA occorre essenzialmente diventare utilizzatori più abili di questi strumenti. Vediamo come le aziende e i presidenti dei consigli di amministrazione possono riuscirci.

 

IMPARARE A USARE L’IA

Pochi consiglieri di amministrazione hanno ricevuto una formazione sull’uso dell’intelligenza artificiale e, di conseguenza, molti trovano frustrante servirsene. Un partecipante a un focus group ci ha detto: «Sinceramente, ho provato l’IA, ma ho subito lasciato perdere. Forniva un sacco di informazioni, ma non avevo idea di quali fossero vere o false. E per la maggior parte non erano pertinenti». Un’altra ragione per cui gli amministratori sono restii a impiegare l’IA, che spesso resta inespressa, è che si tratta di una tecnologia insolita per le persone che hanno raggiunto la maturità prima dell’era digitale, come nel caso di molti consiglieri. L’uso dell’IA desta preoccupazione perché per imparare a usarla bene è inevitabile commettere errori, sentirsi a disagio e temere di poter perdere il controllo.

In sostanza, si tratta di un problema a breve termine, perché con il passare del tempo sempre più amministratori saranno nativi digitali. Le aziende possono inoltre puntare su candidati al CdA dotati di competenze digitali, che hanno quindi maggiori probabilità di saperla integrare nelle loro mansioni di consiglieri. Al momento, però, richiedendo l’alfabetizzazione digitale si rischia di ridurre il bacino di talenti disponibili. Nel corso del prossimo decennio, in attesa che un alto livello di alfabetizzazione digitale diventi una competenza di base che praticamente tutti i professionisti possiedono, sarà necessario fornire agli amministratori una formazione sull’uso dell’IA.

1. Incoraggiare la partecipazione. Raccomandiamo ai presidenti dei consigli di amministrazione di cominciare a tenere colloqui individuali con i consiglieri per sondare il livello di alfabetizzazione e di interesse di ciascuno, conoscere il loro atteggiamento e la loro esperienza in relazione all’IA e discutere potenziali applicazioni per il CdA. Queste conversazioni si possono tenere in sala riunioni, con o senza la presenza di esperti esterni di IA. In alternativa, il presidente potrebbe chiedere a un consigliere che utilizza già l’IA di promuovere l’uso della tecnologia tra i colleghi. In questa prima fase è essenziale lasciar emergere i rischi associati all’IA, sia reali che immaginari, nelle riunioni del CdA e spiegare come si possono gestire. Se i consiglieri comprendono che è possibile attenuare i rischi in modo efficace, saranno più disposti a provare a usare l’IA.

Alla luce delle risultanze di queste conversazioni, i presidenti dovranno creare opportunità di apprendimento personalizzate per coloro che necessitano di formazione, adattandole alle modalità di apprendimento e all’agenda di ogni consigliere interessato. Probabilmente si dovranno prevedere esercitazioni individuali con un esperto di IA, e l’ideale sarebbe un coach interno all’azienda. La formazione non dovrà focalizzarsi esclusivamente sull’uso dell’interfaccia: dovrebbe evidenziare anche la misura in cui l’IA può migliorare l’efficienza dei singoli consiglieri e quella collettiva del CdA.

Abbiamo riscontrato che, con una formazione personale efficace, i timori e le frustrazioni vengono rapidamente sostituiti dall’entusiasmo per l’intelligenza artificiale. Come ha osservato un consigliere in uno dei nostri focus group: «Ho fatto due tentativi con l’IA. La prima volta ho cercato di capire come usarla per conto mio, e non ho ottenuto granché. Tre mesi fa, invece, il nostro presidente ha organizzato un seminario sull’uso dell’IA rivolto a tutti i consiglieri. Quella serie di incontri ha cambiato il mio modo di svolgere le mie mansioni nel CdA. Da allora, ChatGPT è diventato il mio complice fidato».

2. Praticare sperimentazioni collettive. A questo punto, il presidente dovrebbe cominciare a sperimentare l’uso degli strumenti di IA durante le riunioni, introducendo cambiamenti graduali nelle procedure del CdA. Servirsi di uno strumento di IA dotato di conoscenze generiche, per esempio, è facile e non richiede altro che la volontà dei consiglieri. Raccomandiamo di utilizzare lo stesso LLM fondativo per due o tre riunioni e di invitare i consiglieri a elaborare i propri prompt in preparazione delle riunioni e nel corso delle stesse. Dopo ogni riunione si dovrebbe organizzare un incontro di debriefing durante il quale condividere le esperienze e le lezioni apprese e proporre idee a fini di miglioramento.

Quando i consiglieri cominciano a riconoscere l’utilità dello strumento, l’azienda può addestrare una versione specifica del modello LLM con le migliori prassi di governance aziendale, in modo che possa fungere da coach durante le riunioni. I consiglieri dovrebbero istruire lo strumento con informazioni personali e professionali attinenti alle loro mansioni nel CdA, per assicurare che le raccomandazioni dell’IA siano adattate alla posizione, alle priorità e alle responsabilità personali di ciascuno. Il presidente può anche chiedere allo strumento di affidare incarichi ai consiglieri e di valutarne i risultati alle riunioni.

Una volta che tutti i consiglieri si sentono pienamente a proprio agio nell’uso dell’IA sia per prepararsi alle riunioni sia come coach personale, si dovrebbe consentire allo strumento di accedere alle conoscenze specifiche dell’azienda. Il modello dovrà essere addestrato utilizzando enormi quantità di dati provenienti da varie fonti interne all’organizzazione. In sostanza, queste informazioni consentiranno all’IA di contribuire a colmare il divario informativo tra i consiglieri e i dirigenti aziendali. L’addestramento dell’IA non deve avvenire tutto in una volta. L’azienda potrebbe iniziare consentendo allo strumento di accedere ai dati attinenti a una questione specifica che il CdA prevede di discutere a una prossima riunione. Poi, in base al livello di soddisfazione per i risultati ottenuti, l’addestramento potrà essere esteso in modo incrementale nel corso del tempo.

I promotori dell’innovazione sono spesso tentati di aggirare il processo decisionale collettivo e provano invece a imporre le nuove idee facendo leva sulla propria autorità formale e informale. Il presidente del CdA dovrebbe resistere a questa tentazione quando introduce l’IA nelle riunioni del consiglio. È importante che l’intero CdA prenda decisioni fondate su dati concreti riguardo all’adozione dell’IA, e l’intero CdA dovrebbe assumersi la responsabilità di tali decisioni.

3. Tenere vivo l’entusiasmo. Il percorso non si conclude quando l’IA arriva in sala riunioni, anche se entra in veste di partecipante attivo. La tecnologia continuerà a evolversi nel corso del tempo e i consiglieri impareranno a conoscerla meglio man mano che la utilizzano. I progressi compiuti nell’uso dell’IA dovrebbero diventare un elemento importante delle valutazioni post riunione e annuali dei consiglieri, i quali andranno lodati per l’impegno dedicato all’uso dell’IA, indipendentemente dai risultati concreti che ottengono. Riconoscendo il contributo di un particolare consigliere (o di tutto il CdA) alla promozione dell’IA, il presidente trasmetterà un chiaro segnale sull’importanza di questa tecnologia. Le esperienze acquisite possono essere rafforzate con ulteriori attività di coaching e sostegno formativo.

Per tenere vivo l’entusiasmo, è fondamentale che il presidente del CdA dia prova di impegno personale costante a usare l’intelligenza artificiale. Quando i leader promuovono l’impiego dell’IA da parte di altre persone, ma si guardano bene dall’utilizzarla, i loro collaboratori ci penseranno due volte prima di abbracciarla. Ma se i consiglieri vedono che il presidente impara ad applicare la nuova tecnologia e la rende parte integrante delle discussioni del CdA, allora presteranno attenzione. I presidenti non dovrebbero nascondere le loro difficoltà personali a imparare a usare la tecnologia in maniera efficace, perché rivelando questa debolezza incoraggeranno altri a sperimentare.

 

Pur presentando delle sfide, l’integrazione dell’IA nei consigli di amministrazione aziendali crea anche notevoli opportunità di miglioramento delle prestazioni. Siamo convinti che prima o poi tutti i CdA avranno un consigliere IA, magari persino dotato di diritto di voto. I CdA che guardano avanti cercheranno di cavalcare quest’onda e diventare sin d’ora abili nell’uso dell’IA. Prendendo decisioni più intelligenti e in modo più tempestivo, come sicuramente faranno con l’ausilio dell’intelligenza artificiale, permetteranno alle loro aziende di giocare d’anticipo sulla concorrenza. E in molti casi conserveranno quel vantaggio strategico per un certo periodo.

 

Stanislav Shekshnia è professore associato all’INSEAD, dove ha cofondato e codiretto il programma Leading from the Chair. È inoltre presidente del CdA della Technoenergy AG. Valery Yakubovich è direttore generale del Mack Institute for Innovation Management e professore aggiunto alla Wharton School.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400