INTELLIGENZA ARTIFICIALE
di Francesco Bolici
Aprile 2026
L’intelligenza artificiale può facilitare l’esecuzione del lavoro, ma non necessariamente la comprensione di ciò che stiamo facendo. Questa distinzione ha conseguenze concrete e profonde per chi gestisce persone e organizzazioni. In un recente esperimento condotto da Anthropic su sviluppatori software, i partecipanti che potevano utilizzare l’assistenza dell’intelligenza artificiale hanno completato il compito leggermente più velocemente rispetto al gruppo senza AI (differenza modesta, circa due minuti in media). Tuttavia, il risultato più interessante emerge nel test successivo.
Quando ai partecipanti è stato chiesto di verificare la comprensione della libreria Python utilizzata (cioè l’insieme di funzioni e strumenti usati per svolgere il compito), il gruppo che aveva lavorato con l’AI ha ottenuto risultati peggiori: in media il 50% di risposte corrette contro il 67% del gruppo senza AI.
Anche in altri contesti iniziano ad emergere dinamiche simili. Studi sull’uso di strumenti come GitHub Copilot mostrano miglioramenti nella velocità di esecuzione, ma anche maggiore dipendenza dallo strumento e minore sforzo cognitivo. Ricerche su attività di scrittura e problem solving evidenziano un cosiddetto performance levelling: le differenze tra lavoratori esperti e meno esperti si riducono quando si usa l’AI.
Dinamiche analoghe emergono in molte attività ad alta componente cognitiva.
Il dibattito degli ultimi due anni si è concentrato quasi esclusivamente sugli effetti sulla produttività. Molto meno su come l’AI modifichi i processi di apprendimento. Come ho descritto su HBR Italia lo scorso anno esiste un paradosso reale: l’AI può potenziare la performance osservabile ma, allo stesso tempo, modificare e talvolta indebolire i processi attraverso cui si costruisce l’expertise. Per il management, quindi, la questione non è solo quanto aumenta la produttività. È capire come cambia la relazione tra performance e competenza.
In questo scenario molte organizzazioni rischiano di commettere almeno tre errori.
1. L’illusione della competenza
Il primo errore è confondere la performance assistita con la competenza reale.
Quando l’AI entra nei processi di lavoro, anche lavoratori meno esperti possono produrre risultati di buona qualità. Questo fenomeno, definito in letteratura performance levelling effect, riduce le differenze osservabili tra junior ed esperti. Nel breve periodo è un vantaggio: più persone producono risultati accettabili. Nel lungo periodo però il confine tra performance e competenza sfuma. Il manager osserva l’output, ma quell’output è sempre più il risultato dell’interazione tra lavoratore e sistema. Risultati simili possono nascondere livelli molto diversi di comprensione. Di conseguenza, valutazione delle performance, sviluppo del talento e allocazione delle responsabilità diventano tutti più incerti.
Se, come suggeriva Galbraith, le organizzazioni esistono per gestire informazione e incertezza, l’AI riduce drasticamente il costo di accesso all’informazione ma aumenta l’incertezza su dove risiedano realmente le competenze. Il risultato è un’organizzazione più efficiente nell’utilizzo dell’informazione, ma meno trasparente nella distribuzione del sapere. Questo può portare a un disallineamento crescente tra chi prende decisioni, chi esegue e chi possiede effettivamente le conoscenze critiche necessarie.
Managerial Check: Se togliessimo l'AI per una settimana, il junior continuerebbe a performare bene, perché nel frattempo ha davvero imparato, o tornerebbe al suo livello di partenza? Il senior manterrebbe il vantaggio che lo distingue, o scopriremmo che anche lui, senza accorgersene, ha eroso le competenze che lo rendevano esperto?
2. Doing without learning
Il secondo errore è qualcosa di potenzialmente più profondo. Molti dei task che l’AI rende più facili sono gli stessi attraverso cui si costruiva esperienza, ovvero scomporre un problema, cercare soluzioni, analizzare alternative, scrivere versioni intermedie, correggere errori. Sono attività che producono output, ma anche apprendimento.
Quando questi passaggi vengono sistematicamente delegati all’AI si crea un paradosso: la tecnologia aumenta la capacità di eseguire il lavoro nell’immediato ma riduce le occasioni di pratica attraverso cui si sviluppa l’expertise. Una forma di doing without learning che si contrappone al più classico learning by doing.
Si potrebbe obiettare che non è la prima volta che innovazioni tecnologiche presentano rischi analoghi. Calcolatrici, GPS, motori di ricerca hanno tutti automatizzato funzioni cognitive che prima richiedevano sforzo. Ma c’è una differenza rilevante: quei sistemi sostituivano operazioni specifiche e ben delimitate (il calcolo, la navigazione, la ricerca di un’informazione). L’AI tende invece a intervenire proprio nei passaggi intermedi del ragionamento: la formulazione e definizione del problema, la generazione di ipotesi, la valutazione di alternative. Sono esattamente i processi attraverso cui si è sempre costruita l’expertise. Non è quindi solo una questione di quantità, ma di cosa viene delegato all’AI (e allo stesso tempo sottratto dalle attività delle persone).
Una letteratura emergente sull’uso dell’AI nei contesti educativi mostra che l’assistenza algoritmica non si limita a supportare l’apprendimento, ma ne può modificare i meccanismi, riducendo in alcuni casi l’elaborazione attiva delle informazioni. Il rischio è entrare in una trappola della produttività: più output oggi, meno capacità domani.
Seguendo la distinzione classica di March tra exploration ed exploitation, l’AI tende a rafforzare la seconda: rende più efficiente fare ciò che già si sa fare. Allo stesso tempo può indebolire la prima, perché riduce le occasioni attraverso cui si sviluppano nuove competenze. Il risultato è un’organizzazione più efficace nell’esecuzione, ma sempre meno capace di generare innovazione. Queste dinamiche possono essere lette come una vera e propria AI competence trap: le organizzazioni diventano più rapide nell’ottenere risultati, ma indeboliscono i processi attraverso cui le competenze si formano e si rinnovano.
Managerial Check: Per ciascun processo in cui abbiamo introdotto l'AI sappiamo se stiamo guadagnando efficienza a scapito dell’apprendimento o stiamo dando per scontato che le due cose non siano in conflitto?
3. La tentazione della policy unica
Il terzo errore è pensare che l’adozione dell’AI possa essere standardizzata. L’impatto dell’AI non è uniforme, ma varia in funzione della complessità del task, del livello di expertise di chi lo svolge e, aspetto spesso trascurato, di come lo strumento viene usato.
Quando il task è strutturato e l’esperienza è bassa, l’AI funziona come automazione. Quando le competenze sono consolidate, può funzionare come amplificatore delle capacità esistenti. In alcuni casi, soprattutto quando l’AI viene usata come strumento di spiegazione e non solo di esecuzione, può anche accelerare l’apprendimento. In altri, sostituisce proprio i passaggi attraverso cui le competenze si formano.
Questa eterogeneità rende insufficiente qualunque approccio “on/off” all’AI. Un’azienda che adotta una policy uniforme (“tutti usano l’AI per X”) rischia di ottimizzare per la media, perdendo sia i benefici per gli esperti sia le opportunità di sviluppo per i junior. L’adozione dell’AI non è solo una questione di strumenti. È una questione di come l’organizzazione distribuisce responsabilità, apprendimento e capacità decisionale.
Managerial Check: Le nostre policy sull’uso dell’AI distinguono tra task in cui lo strumento amplifica competenze già consolidate e task in cui quelle competenze devono ancora essere costruite?
Conclusione
L’esperimento di Anthropic non dimostra che l’AI ridurrà inevitabilmente le competenze. Dimostra che la relazione tra AI e expertise è più complessa di quanto spesso si pensi, e che questa complessità richiede attenzione manageriale attiva, non solo adozione tecnologica passiva.
Il rischio non è che l’AI renda le persone meno intelligenti. È più sottile: è che un’organizzazione possa diventare progressivamente più brava a ottenere risultati e progressivamente meno capace di capire come ci è arrivata. E un’organizzazione che non capisce come ottiene i suoi risultati fatica ad adattarsi quando quei risultati smettono di arrivare.
Uscire da questa trappola non significa rinunciare all’AI. Significa usarla con intenzionalità: sapendo quando lo strumento amplifica e quando sostituisce, quando accelera l’apprendimento e quando lo bypassa. È la differenza tra un’organizzazione che usa l’AI per fare meglio ciò che sa già fare e una che usa l’AI per continuare ad imparare.
Francesco Bolici è Professore di Organizzazione Aziendale e direttore di OrgLab (Università di Cassino). Studia come l’intelligenza artificiale e le tecnologie digitali trasformano il lavoro, i processi decisionali e il coordinamento nelle organizzazioni. La sua ricerca si colloca all’intersezione tra teoria organizzativa, sistemi informativi e scienze sociali, con particolare attenzione ai temi del future of work, del design organizzativo e dei modelli di business digitali.
Leggi Hbr Italia
anche su tablet e computer
Newsletter