INTELLIGENZA ARTIFICIALE
Gianluca F. Delfino
Ottobre 2025
Elaborazione da Unsplash – Maxim Berg
NEL 2011 IBM presentò Watson come il futuro della medicina oncologica: un’IA capace di analizzare cartelle cliniche, linee guida e studi scientifici per suggerire in pochi secondi i trattamenti più adeguati. La promessa era enorme, ma la realtà si rivelò diversa. Raccomandazioni incoerenti, addestramento basato su dati parziali e aspettative eccessive portarono, dopo miliardi di dollari investiti, al fallimento del progetto. Non fu necessariamente la macchina a “sbagliare”, ma le scelte umane di chi l’aveva guidata, addestrata, proposta ed utilizzata.
Questo caso solleva una domanda centrale: quando l’intelligenza artificiale partecipa ad un processo decisionale, chi ne risponde davvero? Una domanda che ci porta a riflettere sul valore stesso del lavoro professionale. Tradizionalmente, quel valore, sia in contesti autonomi che dipendenti, viene determinato da una combinazione di fattori: tempo impiegato, scarsità e rilevanza delle competenze, reputazione acquisita, natura del settore di riferimento. Questi elementi non sono mutualmente esclusivi ma possono sovrapporsi: in molte attività knowledge-intensive, il compenso riconosciuto è frutto di un equilibrio tra competenze tecniche, grado di specializzazione, responsabilità assunta e impatto delle decisioni. In altre parole, non si remunera solo ciò che viene fatto, ma anche l’efficacia percepita e il peso delle conseguenze.
L’utilizzo crescente dell’IA in contesti professionali mette in discussione questi equilibri. Se una parte del lavoro può essere svolta da una macchina, il valore del professionista deve essere rivisto al ribasso? O si trasforma in qualcos’altro? Se il tempo e alcune competenze sono “liberati” dall’automazione, dobbiamo forse ripensare non solo il modo in cui riconosciamo e valorizziamo il lavoro, ma anche il ruolo stesso di chi lo svolge?
Molti danno una risposta a queste domande invocando la necessità di un continuo reskilling – ovvero un processo di riqualificazione delle competenze dei lavoratori – per fronteggiare il rischio di diventare obsoleti a causa dell’automazione e dell’uso sempre più diffuso dell’IA. Anche se l’importanza di aggiornare e potenziare competenze (tecniche, digitali, creative) non è messa in discussione, la motivazione sottostante appare spesso guidata dalla paura di perdere il lavoro, e con esso la possibilità di generare valore. In questo scenario, domina una logica implicitamente binaria: migliora o muori. Ma è davvero così?
In questa riflessione, propongo che l’emergere (e l’evoluzione) dell’IA non elimina le logiche di valorizzazione del lavoro professionale, ma le trasforma. L’automazione delle analisi (che siano finanziarie, giudiziarie, o mediche) non rende il valore generato dal professionista meno utile, e dunque meno riconosciuto. Il valore rimane sostanzialmente identico. Da un punto di vista meramente razionale, ad esempio, ad un paziente potrebbe non interessare quali siano i retroscena del lavoro di un medico: che questi stia co-analizzando i suoi sintomi (o i suoi valori) con una macchina, con un collega, o in solitudine, ciò che conta è il risultato (es. avere salva la vita). Il fatto che l’IA possa aver contribuito all’analisi, o all’elaborazione del sintomo (e quindi della cura) non rende il valore del medico meno rilevante, e dunque meno riconosciuto. Tuttavia, se la diagnosi si rivela sbagliata, il paziente inizierà a interrogarsi non solo sull’esito, ma sul processo decisionale che lo ha prodotto. Nel caso estremo in cui un’IA ha elaborato dati, prodotto una diagnosi sbagliata e somministrato dei farmaci (sbagliati), è lecito domandarsi: chi ne risponde? Possiamo davvero immaginare uno scenario in cui il paziente danneggiato fa causa all’algoritmo?
Questo tipo di domande, per quanto provocatorie, ci costringe a fare chiarezza: la responsabilità – legale, etica, professionale – non può essere delegata alla macchina. È qui che l’automazione ed accelerazione delle analisi sposta il baricentro del valore professionale: non tanto su chi (o cosa) produce l’informazione, quanto su chi se ne assume la responsabilità. In questo senso, il professionista rimane responsabile di ciò che delega alla macchina e delle conseguenze che ne derivano. Quel che cambia è il gesto professionale: anche se l’analisi viene delegata (parzialmente o in toto), resta fondamentale fondare su di essa le proprie decisioni e prendersene carico. Coloro che sceglieranno di delegare alla macchina qualunque aspetto delegabile del proprio lavoro rimarranno responsabili delle conseguenze professionali, etiche, o legali di questa scelta. In questi casi, si rimane responsabili anche di ciò che non si è fatto: non aver definito un confine etico-morale, non aver prestato attenzione al processo, non aver controllato i risultati prodotti dalla macchina. In altre parole, il rischio reputazionale, legale, ed etico non scompare a causa dell’IA, né può essere trasferito ad essa. L’essere umano sarà sempre il soggetto chiamato a decidere. l’IA non può (e forse non potrà mai) assumere il ruolo sociale ed etico che questa responsabilità comporta. Le implicazioni di questo ragionamento potrebbero toccare in profondità il modo in cui definiremo, valorizzeremo e valuteremo il lavoro professionale.
La prima trasformazione riguarda il significato stesso del termine “professionista”, soprattutto in contesti dove il confine tra ciò che è professionale e ciò che non lo è appare ambiguo o difficile da definire. In questo senso, il lavoro da remoto ha già ridimensionato la centralità del tempo impiegato o della presenza fisica, spostando l’attenzione su ciò che viene effettivamente prodotto. L’IA rappresenterà un nuovo fattore di crisi per l’equazione “tempo dedicato = valore percepito”. Se alcune fasi del lavoro (analisi, calcolo, sintesi) possono essere automatizzate, allora il valore non risiederà più nel “fare” in sé (e per quanto tempo), ma nella capacità di governare il processo, monitorarne la qualità, e assumersi la responsabilità delle scelte finali. Non sarà necessariamente chi padroneggia le competenze tecniche più avanzate a risultare “più professionale”, ma chi saprà integrarle con capacità trasversali: interpretazione critica dei dati, sensibilità contestuale, discernimento decisionale. In altre parole, il professionista sarà tale non solo per ciò che sa o fa in senso assoluto, ma anche per come esercita il proprio giudizio nel decidere cosa far fare alla macchina, e come interpretarne ed elaborarne i risultati.
Se cambia la natura del contributo umano, cambia anche la logica con cui gli si attribuisce valore. Non conteranno più (solo) la quantità di lavoro svolto, né la complessità tecnica delle attività. A diventare centrale sarà il grado di esposizione del professionista alle conseguenze delle proprie scelte. In questo senso, la span of accountability – cioè l’ampiezza e profondità del perimetro decisionale su cui il professionista è chiamato a rispondere – assumerà sempre di più un ruolo centrale per valutare e remunerare il lavoro. Il professionista non sarà più responsabile soltanto dell’output finale, ma anche della tracciabilità e trasparenza del processo che ha portato a quel risultato: i dati utilizzati, le alternative scartate, le logiche adottate. Un esempio lo offrono oggi le Big Four, che stanno già introducendo sistemi di IA per analizzare milioni di transazioni e documenti in tempi rapidissimi. Questi strumenti aumentano l’efficienza e la capacità di individuare anomalie, ma non trasferiscono la responsabilità del giudizio: il revisore rimane chiamato a giustificare il processo seguito e ad assumersi il rischio professionale derivante dalle proprie conclusioni. Pertanto, un’analisi supportata dall’IA, se porta a una decisione sbagliata, non alleggerisce la responsabilità del professionista. Al contrario: ne rafforza la necessità di giustificare il processo seguito. Non si paga “soltanto un servizio”, ma la disponibilità ad assumersi il rischio reputazionale, operativo o etico associato a una determinata decisione.
Se il senso di responsabilità acquisirà maggiore rilievo professionale, allora anche lo stesso concetto di “performance” dovrà essere rivisto. Non sarà sufficiente limitarsi all’output finale come indicatore di successo: sarà sempre più importante analizzare come il professionista ha gestito il processo decisionale. Quali dati sono stati utilizzati? Quali alternative considerate e scartate? Quale logica ha guidato la scelta finale? In questo senso, la performance include anche la capacità di spiegare, motivare e rendere trasparente il percorso decisionale. Allo stesso modo, i meccanismi incentivanti dovranno evolvere: non si premierà soltanto il risultato positivo, ma la capacità di orientarsi tra molteplici opzioni e di scegliere quella più adeguata nel rispetto di criteri etici, strategici, ed operativi. Paradossalmente, più cresce il supporto algoritmico, più diventa centrale il giudizio umano. L’accountability dovrà essere intesa come un atto intenzionale: ciò che si riconosce – anche economicamente – non è solo il sapere o il fare, ma la disponibilità a farsi carico delle proprie decisioni. Anche quando il processo è mediato da una macchina, resta il professionista a “metterci la faccia”. E questa, sempre di più, sarà la vera misura della performance. Il caso IBM Watson for Oncology lo dimostra bene: non furono le raccomandazioni errate in sé a decretarne il fallimento, ma l’impossibilità di ricostruire e giustificare in modo trasparente il percorso decisionale che aveva portato a quelle raccomandazioni. La mancanza di accountability del processo ha eroso la fiducia più dell’errore tecnico. Tradotto in pratica, significa che ogni professionista dovrebbe chiedersi, prima di delegare una decisione all’IA:
IN CONCLUSIONE, il professionista del futuro non sarà necessariamente pagato per sapere, per eseguire, o per le ore dedicate, ma per assumersi la responsabilità visibile di ciò che fa, e di ciò che fa fare alla macchina. Questo comporta un cambiamento di paradigma: dalla competenza alla responsabilità. Vedo, in questa trasformazione, molta più complementarità che sostituzione: l’IA può estendere le capacità analitiche, ma resta il professionista a dare senso, contesto, e responsabilità alle decisioni. E sarà proprio la sua disponibilità ad esporsi (a “metterci la faccia”) a determinare non solo il suo valore, ma la stessa sopravvivenza e dignità della sua professione.
Gianluca F. Delfino, Assistant Professor of Management Accounting, Stockholm School of Economics.