INTELLIGENZA ARTIFICIALE
di Toby E. Stuart
Aprile 2026
HBR Staff/imaginima/Getty Images
Nel gennaio del 2026, il CEO di una compagnia assicurativa Fortune 500 convocò il proprio team di vertice per discutere su chi dovesse avere la responsabilità delle iniziative di IA dell’azienda. Per il CIO la risposta era ovvia: i sistemi di IA agentica rientravano nella sua area. Il COO ribatté che una forza lavoro composta da agenti è, per definizione, una questione operativa. Il CFO fece notare che un sistema di IA stava già prendendo decisioni di sottoscrizione del rischio con un impatto diretto su conto economico e redditività. Il Chief Risk Officer osservò che sistemi decisionali autonomi rappresentano una fonte significativa di esposizione al rischio. Il CHRO vedeva negli agenti IA un equivalente funzionale dei lavoratori, e quindi un tema che ricade almeno in parte nella sua sfera di competenza. Il Chief Data Officer ricordò infine che l’intero impianto dipendeva da autorizzazioni corrette e accesso adeguato ai dati: un ambito che apparteneva chiaramente alla sua funzione.
La riunione si concluse senza una decisione. Pochi mesi dopo, l’azienda avviò la ricerca di un profilo simile a quello di un Chief AI Officer, seguendo l’esempio di aziende come Dell, Pfizer, PwC, UBS ed Expedia.
Scene come questa si stanno ripetendo nei vertici aziendali di tutto il mondo. L’IA agentica – sistemi autonomi orientati a obiettivi, consapevoli del contesto, capaci di richiamare altri strumenti software, prendere decisioni complesse e agire – sta aprendo una contesa di competenze ai massimi livelli dell’organizzazione. La domanda su chi debba controllare l’IA è il nodo cruciale dell’organigramma all’alba dell’era dell’intelligenza artificiale e influenzerà la strategia d’impresa, i livelli di investimento e la distribuzione del potere e dell’influenza tra i leader.
Questa competizione non è nuova. Uno dei modelli più illuminanti per comprenderla è stato sviluppato dal sociologo Andrew Abbott nel suo volume fondamentale del 1988, The System of Professions. Abbott mostra come i gruppi professionali siano impegnati in una competizione continua per il controllo di specifici ambiti di attività e come i grandi cambiamenti tecnologici o sociali rappresentino i momenti in cui quei confini vengono ridisegnati. Applicata alla C-suite, la sua teoria aiuta a capire perché l’attuale corsa a rivendicare il controllo dell’IA diventerà sempre più intensa, ma suggerisce anche una via pratica per superare la guerra di territorio e arrivare a una struttura organizzativa che funzioni davvero.
Competizione giurisdizionale
Secondo Abbott, le professioni esistono all’interno di un sistema interdipendente e competono costantemente tra loro per il controllo di determinati ambiti di lavoro. Ogni professione rivendica alcuni tipi di attività, che diventano la giurisdizione dei propri membri: il proprio territorio professionale. Ma queste giurisdizioni non sono mai assegnate una volta per tutte. Vengono conquistate, difese e talvolta perse in un confronto continuo nei punti di contatto tra professioni diverse.
Oggi, per esempio, gli infermieri specializzati (nurse practitioners) e i physician assistants svolgono attività di assistenza primaria che un tempo erano riservate ai medici di medicina generale. I commercialisti e gli avvocati tributaristi si contendono la pianificazione fiscale complessa, così come avvocati e consulenti finanziari operano entrambi nell’ambito della pianificazione patrimoniale. Gli assistenti sociali competono con gli psicologi, che a loro volta competono con gli psichiatri, i quali hanno conteso ai neurologi il trattamento di molte condizioni di salute mentale.
La competizione giurisdizionale esiste da tempo anche all’interno delle organizzazioni. Le principali funzioni aziendali – supply chain, operations, ricerca e sviluppo, sistemi informativi, product management, risorse umane, finanza, marketing e vendite – sono elementi di un sistema di lavoro interdipendente, non diversamente dalle professioni, e ciascuna funzione rivendica come proprie determinate prerogative decisionali. Nelle organizzazioni mature e in periodi di relativa stabilità, la divisione del lavoro tra le funzioni tende a essere consolidata.
Nei periodi di cambiamento profondo, tuttavia, questa stabilità lascia spazio al fermento. Ed è esattamente il momento in cui ci troviamo oggi. È l’equivalente organizzativo della caduta di un impero: gli stakeholder percepiscono che la mappa del potere aziendale sta per essere ridisegnata e ogni funzione presenta le ragioni per cui una certa porzione di territorio dovrebbe appartenere a lei. Confini tra leader funzionali che sembravano consolidati tornano improvvisamente negoziabili.
L’IA agentica non solo crea aree di attività del tutto nuove, prive di un proprietario evidente, ma sposta anche decisioni che fino a poco tempo fa ricadevano chiaramente entro competenze funzionali specifiche.
La competizione giurisdizionale è tornata. E la partita è appena iniziata.
Perché l’IA agentica è diversa
Per certi versi, non c’è nulla di nuovo: anche in passato le grandi transizioni tecnologiche hanno acceso dibattiti su competenze e confini.
L’arrivo dei sistemi ERP, per esempio, generò tensioni tra i responsabili dei processi di business e l’IT. Alla fine, il livello di controllo – cioè il diritto di definire regole, autorizzazioni e logiche di orchestrazione – finì spesso sotto la responsabilità del CIO, con un forte contributo dei responsabili del dominio coinvolto.
In un primo momento il cloud sembrò destinato a decentralizzare la capacità computazionale, riducendo il bisogno di controllo centrale. Spostando l’investimento dall’elevato capex necessario per acquistare hardware al costo operativo, inizialmente contenuto, del noleggio di capacità elaborativa, un responsabile di business poteva semplicemente usare la carta di credito e attivare nuovi servizi software.
Quella libertà, tuttavia, si rivelò temporanea. Quando la spesa cloud esplose e iniziarono a emergere rischi di sicurezza e problemi di compatibilità, il CIO tornò a imporre un controllo centralizzato sulle iniziative di shadow IT nate nelle business unit.
L’IA agentica, però, produrrà un cambiamento molto più radicale.
Tornando all’esempio della compagnia assicurativa, un agente IA che gestisce autonomamente i sinistri è al tempo stesso:
Le decisioni e le azioni dell’agente attraversano più giurisdizioni funzionali e sono centrali per quasi tutte.
A differenza di piattaforme SaaS come Salesforce, Workday o NetSuite, l’IA agentica fa saltare la distinzione tra “strumento” e “lavoro”. Come amano ripetere molti osservatori della Silicon Valley, con l’IA agentica the software is the service.
In altre parole, gli agenti sono il team che prende decisioni operative – o quantomeno ne produce la prima valutazione. Di conseguenza, chi governa gli agenti – ruoli, autorizzazioni, vincoli operativi, sistemi di valutazione, meccanismi di escalation e budget – controllerà sempre di più non solo ciò che l’azienda decide, ma anche il modo in cui lo decide.
I contendenti e le loro rivendicazioni
Abbott osservava che le professioni vincono le contese giurisdizionali quando riescono a inquadrare i problemi in termini tali da rendere indispensabile la propria competenza. È esattamente ciò che sta accadendo oggi nei vertici aziendali.
Il CIO fonda la propria rivendicazione sull’infrastruttura. Gli agenti IA devono essere progettati, integrati nei sistemi esistenti, protetti rispetto a nuove superfici di attacco e gestiti su larga scala. La costruzione e la gestione di questi sistemi richiedono competenza tecnica e responsabilità operativa.
Il COO vede nell’IA agentica un’estensione diretta delle operations dell’impresa. Gli agenti opereranno dentro i workflow, e i workflow sono il cuore delle operations.
Il CHRO sostiene invece una tesi più provocatoria: gli agenti rappresentano di fatto una nuova categoria di “lavoratori”. Devono essere formati sulla conoscenza specifica dell’impresa, integrati nella cultura aziendale, supervisionati nel deployment e valutati nelle prestazioni.
Il CFO pone la questione della responsabilità economica. Gli agenti modificheranno approvazioni, prezzi, utilizzo degli asset e spesa aziendale in modi che incideranno direttamente sui risultati economici.
I responsabili della funzione rischio e legale vedono nei sistemi autonomi una nuova fonte di possibile errore, responsabilità ed esposizione regolatoria.
Infine, il Chief Data Officer sottolinea che tutte queste rivendicazioni dipendono in ultima analisi dal dato. Poiché gli agenti ragionano su informazioni, la qualità dei loro output dipende dalla qualità dei loro input.
Da “chi possiede l’IA?” a “chi decide cosa sull’IA?”
Tutte queste rivendicazioni hanno una loro logica.
Quando più leader avanzano pretese legittime sulla stessa giurisdizione, le organizzazioni tendono di solito a scegliere una delle seguenti soluzioni:
Nessuna di queste opzioni, però, è adeguata per l’IA agentica.
Serve un cambio di prospettiva. Invece di chiedersi “chi possiede l’IA?”, le aziende dovrebbero chiedersi “chi ha la responsabilità delle diverse decisioni legate all’IA?”.
La prima domanda invita all’accaparramento. La seconda scompone il problema in decisioni specifiche e assegna ciascuna alla figura più adatta a prenderla.
Il ruolo del Chief AI Officer
Molte aziende stanno introducendo il ruolo di Chief AI Officer perché riconoscono che la responsabilità dell’IA non può essere concentrata in una sola funzione.
Ma un CAIO che “possiede l’IA” in senso generale avrà difficoltà ad affermarsi, perché l’IA attraversa ormai ogni ambito dell’impresa. Ciò che un CAIO può realmente presidiare è il livello di coordinamento.
In pratica significa:
Significa anche convocare i dirigenti rilevanti quando emerge un nuovo caso d’uso che non rientra chiaramente nelle responsabilità esistenti – un evento che probabilmente diventerà frequente nei primi anni dell’IA agentica.
L’inevitabilità dell’instabilità
Nessuna di queste soluzioni eliminerà la competizione giurisdizionale. Potrà però incanalarla in modo produttivo. Se la discussione si concentra su chi decide cosa sull’IA, il confronto diventa meno astratto e più orientato all’implementazione. Va però sottolineato un punto: non esiste una risposta definitiva alla domanda su chi debba avere la responsabilità delle diverse decisioni sull’IA. La tecnologia evolve troppo rapidamente perché qualsiasi assetto organizzativo possa restare stabile a lungo.
Per i prossimi anni, è probabile che assisteremo a continui spostamenti nei diritti decisionali e a nuovi equilibri organizzativi che si formeranno e si dissolveranno con l’arrivo di nuove capacità tecnologiche.
Il CEO della compagnia assicurativa che aveva convocato quella riunione inconcludente aveva diverse opzioni. Poteva aspettare che fosse un concorrente a indicare la strada. O lasciar prevalere la voce più rumorosa. Oppure poteva riconoscere che, in fondo, tutti i dirigenti presenti avevano ragione – e che il suo compito non era scegliere un vincitore, ma costruire un sistema coordinato in cui ciascuno fosse responsabile delle decisioni che è nella posizione migliore per assumere.
Questo è il vero lavoro della leadership quando si affrontano trasformazioni organizzative di questa portata. Progettare una mappa che colleghi responsabilità e implementazione – e aggiornarla ogni volta che la tecnologia supera la versione corrente dell’organigramma.
E, per il futuro prevedibile, succederà spesso.
Toby E. Stuart ha la cattedra in Entrepreneurship, Strategy and Innovation presso la Haas School of Business dell’University of California, Berkeley; è Faculty Director del Berkeley Haas Entrepreneurship Program e Associate Dean for External Affairs e Faculty Director dell’Institute for Business Innovation.
Leggi Hbr Italia
anche su tablet e computer
Newsletter