INTELLIGENZA ARTIFICIALE
Lynda Gratton
Febbraio 2026
HBR Staff/malerapaso/Getty Images
IN UN RECENTE WORKSHOP, un alto dirigente mi ha detto: “Nessuno di noi sa come le persone impareranno in questa nuova era”. Lo sento dire un po’ ovunque. I leader comprendono che l’intelligenza artificiale sta trasformando i compiti e i flussi di lavoro, ma sono molto meno sicuri di come stia rimodellando i processi attraverso i quali le persone si sviluppano, ovvero come acquisiscono competenze, costruiscono empatia e formano la propria identità lavorativa.
Nell’apprendimento e nello sviluppo umano, il ritmo del cambiamento tecnologico supera ormai la nostra capacità di comprenderlo appieno. In questi ambiti ci sono poche certezze. Ciò che è possibile fare, tuttavia, è tenere conversazioni in cui i dirigenti pongono domande difficili e si ascoltano apertamente l’un l’altro. Io le chiamo “conversazioni di comprensione”.
Nel mio recente lavoro di consulenza e insegnamento, ho sviluppato quattro “provocazioni” per sostenere queste conversazioni, che credo tutti i leader dovrebbero avere. Non sono risposte, ma spunti, strumenti che possono aiutare i leader a esplorare come l’IA sta alterando le condizioni dell’apprendimento e della crescita umana nelle loro organizzazioni.
Quando l’IA compromette i percorsi di apprendimento
Inizio invitando i dirigenti a descrivere i percorsi che li conducono alla padronanza delle competenze. In modi a volte brutalmente onesti, parlano di innumerevoli ore di pratica, momenti di intensa intuizione, saggezza acquisita dai fallimenti, mentori che hanno dato loro feedback. È tutto apprendimento esperienziale che ha plasmato la loro competenza, resilienza, giudizio e identità.
Consideriamo quindi cosa scompare quando l’IA svolge questo lavoro iniziale. Un modello che ora vedo emergere è la preoccupazione che le “scorciatoie” dell’IA stiano interrompendo questi percorsi naturali verso la padronanza e verso quelle difficoltà desiderabili che producono competenza. “Se i miei giovani analisti non lottano mai”, mi ha detto un banchiere senior, “e non dedicano quelle lunghe ore che ho dedicato io, impareranno mai a pensare?” Molti temono che proprio le esperienze che hanno plasmato la loro carriera – la pratica, la frustrazione, l’affinamento del mestiere – rischino di essere eliminate. Se l’IA redige la bozza di un memorandum strategico, analizza i dati o genera le prime 20 idee, cosa succede al lento e impegnativo processo di reiterazione e apprendimento che un tempo costituiva il percorso per acquisire una padronanza?
Le implicazioni sullo sviluppo stanno cominciando ad emergere. L’IA accelererà senza dubbio l’apprendimento, ma un apprendimento accelerato non è la stessa cosa di uno sviluppo. L’accelerazione velocizza il risultato, lo sviluppo trasforma l’identità. Le due cose non sono intercambiabili.
In queste conversazioni, l’obiettivo dovrebbe essere quello di discutere come mantenere lo sviluppo umano al centro dell’apprendimento organizzativo, piuttosto che lasciare che l’IA prenda il sopravvento sulle esperienze che costruiscono il dominio delle competenze. Preserveremo quelle esperienze o cadremo preda della tirannia della produttività?
Fine di una calma riflessività?
Qui chiedo ai dirigenti di riflettere sulle lezioni di lavoro apprese dalla pandemia, quando i loro team hanno adottato una “tecnologia pandemica” come Zoom, Teams e le piattaforme di collaborazione digitale. Mi raccontano come queste tecnologie abbiano permesso alle persone di lavorare ininterrottamente in circostanze straordinarie. Ma riflettono anche su come ciò abbia innescato conseguenze indesiderate: il numero di riunioni è aumentato del 50%, i carichi di lavoro si sono intensificati e il tempo per un lavoro approfondito e concentrato si è ridotto in modo significativo. Quella che era iniziata come una soluzione tecnologica necessaria si è rapidamente trasformata in un sovraccarico. La facilità di riunire le persone ha creato più attività, non necessariamente un pensiero migliore, e lo spazio per la riflessione e il lavoro approfondito si è ridotto.
Con l’IA rischiamo di ripetere questo schema su scala ancora più ampia. Se le tecnologie pandemiche hanno aumentato il volume delle riunioni, l’IA aumenta il volume dei contenuti, rendendo possibili più presentazioni, più relazioni, più bozze, gran parte delle quali prodotte con un attrito trascurabile. I dirigenti descrivono già i primi segni di questo fenomeno. Le presentazioni e i documenti di sintesi generati dall’IA si stanno moltiplicando, spesso più velocemente di quanto i team riescano a interpretarli o a stabilirne le priorità. Come mi ha detto un dirigente: “Stiamo generando di più, ma pensando di meno”.
La speranza era che l’automazione del lavoro intellettuale avrebbe lasciato spazio al lavoro riflessivo e creativo. La realtà emergente è che questa proliferazione crea semplicemente rumore che soffoca le condizioni essenziali per l’apprendimento: calma, riflessione e spazio per pensare in modo approfondito. I dirigenti descrivono sempre più spesso giornate piene di materiale generato dall’intelligenza artificiale, ma con meno momenti disponibili per interpretare, integrare o mettere in discussione.
In queste conversazioni, la sfida è un flusso di contenuti senza attrito che travolge l’attenzione e oscura l’intuizione. L’intelligenza artificiale rende molte cose più facili, ma allo stesso tempo può diminuire l’apprendimento e aumentare il rumore. La domanda non dovrebbe più essere “L’intelligenza artificiale può farlo?”, ma piuttosto “Questo aggiunge valore?”.
Stiamo offuscando ciò che ci rende umani?
I dirigenti mi dicono spesso che le capacità che apprezzano di più nei loro dipendenti sono anche le più difficili da sviluppare: discernimento, intuizione, ragionamento morale e, soprattutto, empatia. L’empatia ha dimostrato di essere una capacità che può essere costruita sistematicamente attraverso l’esposizione ripetuta a sfumature emotive, conversazioni e lavoro interpersonale di gestione della tensione e delle ambiguità.
L’intelligenza artificiale sta iniziando a modificare queste condizioni di sviluppo. I leader vedono che l’IA è già in grado di simulare aspetti dell’empatia cognitiva (“Posso capire come ti senti”) e di avvicinarsi all’empatia emotiva (“Posso rispecchiare le tue emozioni”). Tuttavia, la dimensione comportamentale, ovvero la cura sufficiente da spingere all’azione, rimane distintamente umana. E, cosa fondamentale, si apprende.
Ciò che sento dire più spesso dai dirigenti non è che temono che l’IA sostituirà l’empatia, ma che temono che sostituirà i contesti in cui l’empatia si sviluppa. L’empatia cresce attraverso la pratica: leggere segnali sottili, gestire i conflitti, impegnarsi in conversazioni difficili, sostenere un collega sotto pressione, mostrare vulnerabilità nei team. Questi sono i punti di attrito che mettono alla prova e rafforzano la capacità emotiva. Come mi ha detto un dirigente: “Se l’IA gestisce le situazioni difficili, come impareranno le persone ad affrontarle?” Un altro ha riflettuto: “I miei manager lasciano che sia lo strumento a interpretare il tono prima di cercare di capirlo da soli”.
Quando l’IA media l’interazione umana, riduce l’esposizione alle esperienze che coltivano l’empatia. La comodità offerta dalla tecnologia elimina proprio quelle condizioni (esposizione, attrito e interazione) attraverso le quali si formano l’empatia, il giudizio e la capacità relazionale.
In questi ambiti, quindi, la sfida è identificare, proteggere e progettare attivamente tali condizioni. La domanda da porsi è: adottando l’IA, stiamo involontariamente privandoci proprio delle esperienze di apprendimento che costruiscono l’empatia?
Stiamo erodendo capacità di scelta e identità?
Man mano che l’IA diventa sempre più integrata nei flussi di lavoro organizzativi, dall’assegnazione dei compiti ai sistemi di raccomandazione, sta rimodellando non solo il modo in cui il lavoro viene svolto, ma anche il modo in cui le persone fanno delle scelte e imparano. Molti dei nuovi strumenti basati sull’IA influenzano il comportamento, propongono i passi successivi o automatizzano le decisioni. In questo modo, tuttavia, stanno anche privando le persone della capacità di riflettere, scegliere e assumersi la responsabilità delle proprie decisioni. In altre parole, i dipendenti rischiano di perdere la loro capacità di agire, che è il motore della crescita e dello sviluppo umano.
I dirigenti ne sono consapevoli. Nei workshop descrivono percorsi di sviluppo che sembrano sempre più etero-guidati, con meno momenti che richiedono un giudizio indipendente. La loro preoccupazione è di natura evolutiva: cosa succede alle scelte personali, alla capacità di agire e all’identità quando l’abitudine all’autodeterminazione si indebolisce? “Se il sistema conosce sempre il passo successivo”, mi ha chiesto recentemente un dirigente, “quando impareranno i miei dipendenti a scegliere da soli?”
In queste conversazioni, la sfida è progettare sistemi basati sull’intelligenza artificiale che preservino lo spazio per la scelta umana. Ciò richiede di mantenere deliberatamente momenti di riflessione, decisione ed esplorazione. La domanda, in definitiva, è questa: cederemo l’autonomia alle macchine o progetteremo per tenere conto dell’autorialità umana?
L’INTELLIGENZA ARTIFICIALE trasformerà il lavoro. Non c’è dubbio. Ma le persone possono, e devono, determinare se trasformerà l’apprendimento. Ecco perché le provocazioni e le conversazioni significative che ho descritto in questo articolo sono così cruciali. Non sappiamo cosa ci riserva il futuro, ma è ora di iniziare a riflettere seriamente su ciò che vogliamo. Soprattutto, è ora di chiedersi: in un’era di macchine intelligenti, come possiamo garantire che le persone continuino a svilupparsi al massimo delle loro capacità?
Lynda Gratton è professoressa di gestione aziendale alla London Business School e fondatrice di HSM Advisory, una società di consulenza che si occupa di ricerca sul futuro del lavoro. Il suo libro più recente è Redesigning Work: How to Transform Your Organization and Make Hybrid Work for Everyone (Penguin Business, 2022).