INTELLIGENZA ARTIFICIALE
Junio Caselli
Luglio 2025
Sempre più aziende delegano all’intelligenza artificiale decisioni e processi, fidandosi dell’idea che bastino i dati a guidare il futuro. L’IA, però, in quanto è basata sull’induzione statistica, tende a replicare il passato – ed è qui che si annida un rischio strategico profondo: i modelli predittivi ignorano l’eccezione, anche quando è proprio quella a ridisegnare il vantaggio competitivo.
Attraverso una rilettura critica di Hume, Popper e Kuhn, l’articolo mostra la fragilità strutturale dell’induzione, soprattutto nei momenti di discontinuità. E nel business, sono proprio questi momenti a decidere chi vince e chi scompare. Nell’HR, l’IA rischia di escludere talenti irregolari, generalisti e outsider — proprio le figure capaci di generare innovazione. Il paradosso è che i sistemi pensati per ottimizzare ci portano a scegliere sempre la stessa persona.
Serve un approccio non tecnofobico, ma critico: l’IA è cieca all’eccezione, anche quando è proprio l’eccezione a riscrivere le regole. Per questo i leader devono saper vedere ciò che l’algoritmo non vede e costruire spazi organizzativi per accoglierlo. Perché l’IA non può sostituire la visione strategica — e solo chi sa usare l’IA senza subirla potrà guidare il cambiamento.
L’induzione è la facoltà di derivare regole generali da un numero finito di osservazioni. Permette di fare previsioni in contesti che si sanno essere costanti. Un cigno nero, cioè un evento induttivamente imprevedibile che altera radicalmente le regole del sistema, dimostra che l’induzione non funziona sempre, almeno in economia, e quando non funziona la questione è seria. Non è l’evoluzione normale a produrre i cambiamenti radicali perché, per dirla con Taleb, ciò che è normale è irrilevante. L’induzione, infatti, porta raramente a conclusioni rilevanti o rivoluzionarie. Anzi, per un eccesso di fiducia nel fatto che il futuro sarebbe una proiezione prevedibile del passato, l’induzione ci impedisce di riconoscere i cigni neri quando li troviamo. Infatti, ci rende ciechi di fronte a tutto ciò che esce dalla norma, anche quando potrebbe esserci necessario.
Nessuna osservazione garantisce che il futuro si comporterà come il passato. Qualunque tentativo di giustificare l’induzione è ricorsivo: se diciamo che l’induzione ha funzionato in passato, stiamo già usando l’induzione per difendere l’induzione. Hume ha chiarito bene che l’abitudine a credere nella stabilità delle cose non si appoggia sulla ragione ma sulla consuetudine e sul comfort psicologico.
Popper ha provato a slegare la scienza dall’induzione, proponendo con successo il metodo di congetture e confutazioni. Le teorie, da lui in poi, non si verificano ma si mettono alla prova. Restano valide finché non vengono smentite. Ma la realtà potrebbe cambiare comunque, o potrebbe cambiare il nostro modo di osservarla e descriverla. Infatti, Goodman, usando l’argomento dei predicati strani, ha mostrato quanto l’osservatore sia importante nella descrizione della realtà. Un predicato strano è una categoria che rispetta tutte le osservazioni passate, ma che implica un comportamento discontinuo e inatteso nel futuro.
Goodman ipotizza uno smeraldo color grue, che è verde fino a una certa data e blu oltre quella data. Ogni smeraldo osservato prima è sia verde che grue. Dunque, l’osservazione passata supporta entrambe le ipotesi. Ma noi preferiamo verde, perché ci siamo abituati, mentre grue è fuori dalla nostra consuetudine psicologica. Goodman sostiene che non esista una giustificazione logica per preferire un predicato all’altro quando questi sono arbitrari.
E, per reciprocità, questo vale anche per i predicati che ci sembrano normali per consuetudine, ma postulano una discontinuità arbitraria. Come, per esempio, le età dell’uomo: infanzia, adolescenza, giovinezza e così via con le etichette. La stessa persona cambia definizione in base al criterio arbitrario del susseguirsi dei compleanni. La persona non sta mutando ontologicamente, ma semplicemente entra in una nuova etichetta. È un predicato arbitrario che non ci appare strano solo perché ci siamo abituati.
Quindi, l’induzione è uno strumento utile per formulare ipotesi, non per stabilire verità o dimostrazioni. Sembra funzionare, ma ha un problema con le discontinuità. Al punto che ci può portare fuori strada quando siamo in un cambiamento di fase invece che in un’evoluzione normale.
Thomas Kuhn, nella Struttura delle rivoluzioni scientifiche, libro del 1962, ha chiarito che la scienza non evolve in modo lineare, ma attraverso fasi di scienza normale seguite da rivoluzioni che rompono il paradigma dominante. Lo stesso schema si ritrova in altri domini: Joseph Schumpeter ha interpretato il capitalismo come una dinamica di crescita interrotta da ondate di distruzione creatrice, Carlota Perez ha descritto l’innovazione tecnologica come un’alternanza tra diffusione e rottura, e Michel Foucault ha ricostruito le discontinuità profonde nella storia delle idee e delle istituzioni. In tutti questi casi – e in infiniti altri – la crescita organica è spezzata da salti radicali che ridisegnano il campo del possibile.
E sono proprio quei salti a colpire più duramente chi non li riconosce in tempo: chi si aspetta che tutto muti a velocità normale. Chi non vede il momento nascente di un cambio di paradigma ne subisce l’impatto sotto forma di declino, perdita di rilevanza o uscita dal mercato. Alcuni esempi eclatanti sono universalmente noti: Symbian, BlackBerry OS, Kodak, MySpace, Yahoo!, Intel.
Ironicamente, Andy Grove, lo storico CEO e co-fondatore di Intel, aveva provato a seminare nell’Azienda la cultura della discontinuità. Nel suo Only the Paranoid Survive del 1996, proponeva un atteggiamento radicalmente anti-induttivo: diffidare della stabilità apparente e prepararsi costantemente allo strategic inflection point, ovvero a quel momento in cui un cambiamento tecnologico, di mercato o competitivo, trasforma radicalmente le regole del gioco. Ma le cose, per Intel, sono precipitate proprio quando ha mancato tre Inflection point: il mobile, l’intelligenza artificiale e l’efficienza energetica nei chip.
È necessario riconoscere che le persone e le organizzazioni devono continuamente fare i conti con il bias dell’induzione. Kahneman, Tversky e Gigerenzer hanno studiato bene il fatto che le persone giudicano la probabilità di un evento in base a quanto somigli a uno schema mentale familiare, e che esiste una legge dei piccoli numeri secondo cui abbiamo la tendenza a trarre regole generali da pochi dati soggettivi.
Visti i rischi e la persistenza del pattern induttivo forse è utile che le organizzazioni si addestrino a riconoscerlo per evitarlo. Ed è proprio a questo fine che è opportuno sottolineare che anche l’intelligenza artificiale non è esente dal bias dell’induzione: l’IA è un sistema sostanzialmente induttivo. I modelli predittivi apprendono da pattern osservati. Nonostante le reti neurali profonde rendano l’induzione flessibile e sofisticata, non la possono certo trasformare in deduzione o in scoperta concettuale. Infatti, quando il contesto cambia più velocemente della loro capacità di rimodularsi, falliscono pericolosamente. Ma possono fallire anche perché leggono pattern strani senza accorgersi delle stranezze.
La discussione su bias, fairness, robustezza, overfitting e generalizzazione nei modelli IA è una riformulazione contemporanea dello stesso problema. Riguarda, in particolare, le ipotesi errate nei processi di apprendimento, l’equità di trattamento costruita su predicati solo apparentemente neutri, l’incapacità di adattarsi a dati di input diversi da quelli di addestramento, la difficoltà nel trasferire modelli predittivi da un contesto all’altro, e l’attribuzione di valore strutturale a elementi che nell’intenzione di training avevano un peso relativo.
L’IA agisce su una rappresentazione parziale di una realtà ipotizzata stabile. Con il rischio che in un contesto di realtà instabile, l’IA può generare un’inutile e pericolosa regressione verso la media, che scelga ciò che è già stato scelto, e lo faccia in un momento di discontinuità creativa. Con l’effetto che, in una realtà in cui i cigni neri possono esistere, suggerisce all’organizzazione di scommettere sul fatto che domani il tempo sarà come oggi.
Nel campo dell’innovazione, questo è un pericolo enorme. I modelli HR basati su IA – oltre ai noti bias di genere o etnia – rischiano di scartare proprio le persone che possono rompere gli schemi. Pensiamo a Steve Wozniak, l’autodidatta che ha progettato l’Apple I, o a Sara Blakely, la venditrice porta a porta che ha inventato Spanx. O ancora all’ingegnere fuori standard Nolan Bushnell, fondatore di Atari, che ha assunto un altro fuori standard, Steve Jobs, proprio perché era anomalo. Se fossero stati gli algoritmi a decidere chi avrebbe potuto avere accesso a un certo ruolo, questi profili sarebbero stati esclusi. L’IA avrebbe ottimizzato verso la ripetizione, non verso l’eccezione.
Karim Lakhani, in uno studio pubblicato su Harvard Business Review nel 2007, con Kevin Boudreau, ha spiegato come le soluzioni più innovative spesso arrivano da chi opera fuori dal dominio di origine del problema. Analizzando la piattaforma InnoCentive di Eli Lilly – dove problemi tecnici complessi vengono proposti a una comunità globale di solutori – si dimostra che le probabilità di successo aumentano quando il risolutore appartiene a un altro campo disciplinare. Non è la competenza specialistica, o la regolarità degli esami universitari, a fare la differenza, ma la capacità di identificare la funzione essenziale di un elemento e ricollocarla in un altro contesto radicalmente diverso.
È la stessa intuizione che guida David Epstein quando difende la figura del generalista. Chi ha attraversato domini diversi, chi ha fallito cambiando settore – all’università o nel lavoro – chi ha giocato con molti schemi cognitivi, ha più probabilità di trovare un predicato strano che funziona proprio quando serve. E lui stesso è un predicato strano funzionale. Ma i generalisti che si sono iscritti a fisica, poi a lettere, poi a economia e hanno perso un anno per imparare il rafting, non sono i preferiti degli agenti IA dedicati all’HR. E così si perde l’occasione di vedere ciò che non stavamo cercando ma che avrebbe potuto fare il nostro successo, o il successo di un reparto della nostra impresa.
È questo il punto cieco dell’innovazione predittiva: l’IA ci presenterebbe la possibilità di scegliere sempre la stessa persona, incapace com’è di intercettare ciò che ancora non rientra nel pattern, l’eccezione che cambia le regole. E questo riguarda direttamente le imprese. Perché ogni tanto, per sopravvivere e vincere, serve una discontinuità, come un’intuizione fulminante: non siamo più nel business dei treni, ma in quello dei trasporti. Non nei fiori, ma nei regali. Non nei computer, ma nell’entertainment. Ma per fare questo serve una visione che esuberi i dati. Serve abbattere la propria fiducia nel pensiero induttivo.
I leader devono strutturare, all’interno delle organizzazioni che guidano, uno scetticismo critico nei confronti dell’intelligenza artificiale, creando spazi per ciò che l’algoritmo non può strutturalmente vedere. E definire con chiarezza cosa può avere risvolti strategici anche indiretti, per trattarlo in maniera specifica.
Per usare nuovamente le parole di Lakhani: L’intelligenza artificiale non sostituirà le persone. Ma le persone che sapranno usarla sostituiranno chi non lo farà. Riconoscere il problema che l’IA ha nei confronti delle discontinuità, e non farsene contaminare, è un requisito fondamentale del saperla usare. Per questo non possiamo delegare all’intelligenza artificiale le scelte che incidono direttamente sul successo della nostra impresa. Come, ad esempio, decidere quali persone ne faranno parte: ogni singola scelta su chi entra in azienda è una decisione strategica.
Nella storia di tutte le imprese ci sono talenti che l’IA non avrebbe scelto e che hanno inciso sul futuro dell’impresa: questo scritto è implicitamente dedicato a tutti quelli che hanno saputo mettere la propria creatività anti-induttiva al servizio del successo delle proprie organizzazioni. Questo scritto è ispirato da, e dedicato a, tutti questi campioni nascosti. Ne voglio ricordare esplicitamente alcuni: Ken Kutaragi, ingegnere semplice, dalle cui ricerche personali il futuro progetto PlayStation ha preso le mosse; ad Art Fry e Spencer Silver, senza i quali non sarebbero mai esistiti i Post-it di 3M, al tecnico Trevor Baylis che ha inventato la radio a manovella per l’Africa subsahariana che ha avuto un’importanza così grande nella diffusione dell’informazione, e all’assistente Rosalind Franklin che scattò la Fotografia 51 importantissima nella comprensione della forma a doppia elica del DNA, come anche alla segretaria della Liquid Paper Betty Nesmith Graham che inventò il bianchetto, e a Paul Buchheit che nel suo 20% time project concepì Gmail e che è stato il primo in Google a dire: Don’t be evil, e anche a Shigeichi Negishi dell’Hitachi, che ha inventato la segreteria telefonica, e tanti, tanti altri.
Junio Caselli - junio@juniocaselli.it, www.linkedin.com/in/juniocaselli.
Bibliografia
Epstein, D. (2019). Range: Why Generalists Triumph in a Specialized World. Riverhead Books. Epstein, D. (2020). Range. Perché i generalisti vincono in un mondo di specialisti. Luiss University Press.
Foucault, M. (1972). The Archaeology of Knowledge. Pantheon Books.
Foucault, M. (2003). L’archeologia del sapere. BUR.
Gigerenzer, G. (2007). Gut Feelings: The Intelligence of the Unconscious. Viking.
Gigerenzer, G. (2008). Intelligenza intuitiva. Rizzoli.
Goodman, N. (1955). Fact, Fiction, and Forecast. Harvard University Press, 1983.
Goodman, N. (1985). Fatto, finzione e previsione. Il Mulino.
Grove, A. (1996). Only the Paranoid Survive. Currency/Doubleday. Grove, A. (1997). Solo i paranoici sopravvivono. Il Sole 24 Ore Libri.
Hume, D. (1748). An Enquiry Concerning Human Understanding. Oxford University Press, 2007.
Hume, D. (2004). Ricerche sull’intelletto umano. Laterza.
Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
Kahneman, D. (2012). Pensieri lenti e veloci. Mondadori.
Kuhn, T. (1962). The Structure of Scientific Revolutions. University of Chicago Press, 2012.
Kuhn, T. (2009). La struttura delle rivoluzioni scientifiche. Einaudi.
Lakhani, K.R. & Boudreau, K.J. (2007). How to Manage Outside Innovation. Harvard Business Review, May.
Levitt, T. (1960). Marketing Myopia. Harvard Business Review, July–August.
Levitt, T. (2006). L’illusione del prodotto. Il Mulino.
Perez, C. (2002). Technological Revolutions and Financial Capital. Edward Elgar Publishing.
Perez, C. (2004). Rivoluzioni tecnologiche e capitale finanziario. Edizioni di Comunità.
Popper, K. (1963). Conjectures and Refutations: The Growth of Scientific Knowledge. Routledge, 2002.
Popper, K. (2009). Congetture e confutazioni. Il Mulino.
Schumpeter, J.A. (1942). Capitalism, Socialism and Democracy. Harper Perennial, 2008.
Schumpeter, J.A. (2001). Capitalismo, socialismo e democrazia. ETAS.
Taleb, N.N. (2001). Fooled by Randomness: The Hidden Role of Chance in Life and in the Markets. Random House.
Taleb, N.N. (2005). Giocati dal caso. Il Saggiatore.
Taleb, N.N. (2007). The Black Swan: The Impact of the Highly Improbable. Random House.
Taleb, N.N. (2008). Il cigno nero: Come l’improbabile governa la nostra vita. Il Saggiatore.
Tversky, A. & Kahneman, D. (1982). Judgment under Uncertainty: Heuristics and Biases. Cambridge University Press