INTELLIGENZA ARTIFICIALE

Gli LLM, sfida cognitiva cruciale del XXI secolo

Uno strumento, un sistema o un’istituzione?

Cosimo Accoto

Aprile 2025

Gli LLM, sfida cognitiva cruciale del XXI secolo

LA CONVERSAZIONE SOFISTICATA e avvincente tra il direttore Enrico Sassoon e un modello linguistico su larga scala, ossia ChatGPT4, con le domande incalzanti dell’uno e le risposte articolate dell’altro, ci stimola e ci interroga su una delle frontiere più complesse, dibattute e irrisolte dell’IA (per leggere l’articolo clicca qui). A partire da quella interazione (scritta) umano-macchinica e dalle intriganti – e anche arrischiate – prospettive culturali e sociali che si aprono (da ultimo anche esistenziali), propongo una mia personale esplorazione, filosoficamente e strategicamente improntata, su cosa sia da ultimo un large language model e su come dovremmo esaminarlo al meglio per leggerlo nella sua totalità e molteplicità.

Se la risposta a questa domanda può sembrare tecnologicamente tutto sommato semplice, credo tuttavia sia opportuno cogliere l’occasione di questo dialogo di un direttore e di una macchina (lo titolerò così d’ora innanzi) per soffermarci a pensare più densamente alla lettura, o meglio alle diverse letture, che possiamo dare di questa nuova ingegneria dell’intelligenza artificiale generativa (Accoto 2024).

Dunque, che cos'è, filosoficamente, un modello linguistico su larga scala? Arrischio qui tre diverse risposte che sono poi tre distinti ma interconnessi modi di interrogarne il senso e di evocarne da ultimo il destino: (a) è un text predictor, (b) è un knowledge engine, (c) è un market maker. La prima risposta è evocata dallo sguardo “strumentale” con cui possiamo osservare queste nuove, sorprendenti macchine retoriche; la seconda risposta arriva da una visione più “strutturale” dei modelli linguistici sintetici; la terza risposta ci offre una vista con approccio “istituzionale” alla rivoluzione delle parole non-umane (Accoto 2025). Esploriamo qui, sia pur brevemente, queste tre interpretazioni possibili per cogliere gli orizzonti strategici, gli intrecci culturali e le implicazioni economiche che producono.

 

(a) È veramente solo un text predictor?

Tecnicamente parlando, un modello linguistico generativo è un “predittore di parole”. Pur con gradi crescenti di complessità e alta sofisticazione algoritmica (Kockelman 2024), come testimoniato anche dal dialogo del direttore con la macchina, un large language model è fondamentalmente una calcolatrice linguistico-probabilistica. Data una sequenza testuale, deve calcolare la parola e poi la concatenazione di parole che con maggiore probabilità seguirà quelle date. Attingendo al corpus di testi con cui è stata addestrata la sua rete neurale artificiale, alle occorrenze linguistiche co-testuali (non però con-testuali), alle prossimità vettoriali matematiche di lemmi e concetti, sarà in grado di riassumere un documento, di rispondere a una domanda, di costruire una narrazione e così via. Lo straordinario lavoro fatto da queste emergenti macchine linguistiche è che, pur non possedendo una “mente” (umana) e pur non conoscendo il “mondo” (fisico), sono in grado di assemblare contenuti che risultano retoricamente ammissibili, sintatticamente ben formati e semanticamente plausibili.

Si tratta, dunque, primariamente di “macchine influenzatrici” progettate per convincere l’interlocutore (Coleman 2023). Ad oggi, producono ovviamente anche allucinazioni, errori, non sense e sono soggette a loro volta a ipnotizzazioni criminali, contaminazioni manipolatorie ed esfiltrazioni di dati.

Questa proprietà e produzione linguistica formale (ma non ancora funzionale), simulata computazionalmente, è in grado di produrre modelli linguistici per conversare pressoché alla pari, simulare ragionamenti e introspezioni, esibire e comunicare artificialmente empatia, sorpresa, scuse o ripensamenti e così via. In questa interazione antropotecnica si producono psicologicamente (e spesso inconsapevolmente) fenomeni di personificazione e antropomorfizzazione da parte degli utenti a partire anche dall’impiego facile di concetti e significati umani (“comprendere”, “ragionare”, “capire”, “pensare”, “decidere”) per descrivere quelli che sono, di fatto, processi di automazione macchinica a sofisticazione crescente. Processi che ricercatori e sviluppatori di AI continuano a studiare per illuminare questo modo emergente e nuovo delle macchine di processare l’informazione (i più umanizzando, direbbero, “il modo delle macchine di pensare”).

Non sono allora forse solo “pappagalli stocastici” (come i modelli linguistici sono stati connotati e criticati all’inizio) e certamente sono anche qualcosa di più che semplici “macchine calcolatrici delle parole” vista la complessità computazionale che sono in grado di esprimere (ancorché ancora poco compresa) tra catene di pensieri, semiosi macchiniche, processi di inferenza simbolica, capacità di astrazione e generalizzazione e così via. In ogni caso, questo è l’approccio “strumentale”. Ha certamente il vantaggio di portare in evidenza le ingegnerie sottese ai modelli linguistici. E, tuttavia, se ci limitiamo alla dimensione strumentale non comprendiamo la radicalità sociotecnica del passaggio alla parola “non-umana”.

 

(b) È forse anche un knowledge engine?

E, infatti, questa presa di parola della macchina sta facendo collassare, d’un colpo, il senso del linguaggio naturale umano – orale, scritto e poi stampato – e della scrittura umana per come si sono sin qui storicamente evoluti. Con questo cedimento, si incrinano anche altri domini di senso implicati: l’autorialità, la normatività, la responsabilità, l’autenticità umane. Insieme ad essi, più radicalmente, è anche l’erosione della civiltà dello scrivente e del parlante, dell’autore e del lettore, dell’ordine del discorso e dei regimi di “conoscenza” collettiva creati su questo nel corso del tempo. Che è poi l’implicazione sullo sfondo che il direttore Sassoon ha ben inteso illuminare col suo dialogo.

Dunque, dobbiamo allargare la nostra prospettiva e alzare il livello della discussione dalla efficiente “soluzione” ingegneristica alla ristrutturazione culturale di un nuovo “sistema” sociotecnico che viene istanziato. Nel dialogo, il modello attinge alla conoscenza testuale e la rielabora trasformando e innescando, strutturalmente, nuove interazioni performative, nuove strategie produttive e nuove divisioni del lavoro.

L’intelligenza artificiale non è, allora, semplicemente un nuovo prodotto o servizio, come ingenuamente si continua per lo più a ritenere. Cioè, uno strumento calcolante per soluzioni di efficienza. Piuttosto è nuova fabbrica, vale a dire nuova piattaforma cognitiva, predittiva e produttiva che orchestrerà in modi altri le interazioni socioeconomiche umane e non-umane (Choudary 2025, forthcoming).

Riuscire a passare da un approccio strumentale (o per “soluzioni”) a un approccio strutturale (o per “sistemi”) richiede, tuttavia, una visione strategica ed ecosistemica che non molte imprese e organizzazioni, leader e professionisti riescono oggi a sviluppare. D’altro canto, è accaduta già in passato, in altri momenti e per altre rivoluzioni tecnologiche, questa difficoltà interpretativa nel valutare il cambiamento tecnologico in modo sistemico e non solo soluzionista.

Se teniamo, ad esempio, per valida l’analogia dell’introduzione presente dell’intelligenza artificiale nelle organizzazioni con l’introduzione storica dell’elettricità nelle fabbriche, potrebbe chiarirsi meglio questo passaggio dalla soluzione al sistema. L’elettricità all’inizio sostituì il vapore come fonte energetica abbattendo i costi e così fu intesa. Non modificò il sistema produttivo, la struttura di fabbrica e il suo modo di produzione. Fu solo successivamente che si compresero e si implementarono le modifiche sistemiche e strategiche che hanno portato alla moderna catena di montaggio con riposizionamento dei macchinari lontano dalle fonti energetiche, ridisegno dei flussi produttivi e dell’organizzazione stessa del lavoro (Agrawal et al. 2022).  

L’adozione dell’intelligenza artificiale sta avvenendo oggi più spesso ancora per introduzione destrutturata e tattica di “strumenti”: algoritmi di ottimizzazione e performance, applicazioni per efficientare flussi e reti, servizi di personalizzazione sul consumatore e strategie di predizione e così via. Ma le soluzioni verticali e applicative (strumenti), una volta inquadrate più strategicamente a livello di “sistema”, scardineranno assetti industriali e architetture produttive. A partire dalla produzione, circolazione e conservazione della conoscenza in modalità più-che-umane, come ben mostra il dialogo di un direttore con una macchina. Il focus della questione dell’intelligenza (artificiale) si sposta così dallo strumento al sistema. Ma anche questo passaggio di mindset non chiude ancora la discussione perché c’è dell’altro.

 

(c) È da ultimo un market maker?

Ancor più marginale, nella riflessione odierna sugli impatti dell’intelligenza artificiale, è la prospettiva “istituzionale”. Tra diritto, economia e politica, l’orientamento istituzionale cerca di allargare la riflessione dagli aspetti “instrumentanti” e “infrastrutturanti” (che abbiamo visto sin qui) a quelli “istituzionalizzanti”. In questa terza lettura, non è solo la singola composizione del lavoro a essere osservata nelle trasformazioni innescate dall’IA, né è solo la specifica struttura dell’impresa con le sue nuove organizzazioni del lavoro riorientate dall’IA. È, invece, la profonda metamorfosi di istituzioni umane storiche come i mercati, ad esempio. È il loro progressivo scardinamento ed erosione in ragione dell’arrivo di rinnovate logiche istituzionali di coordinamento, di comunicazione, di decisione, di informazione.

Pensiamo, di nuovo, ai modelli linguistici su larga scala, oggi molto in voga, e al dialogo del direttore. Possiamo analizzarli come meri “strumenti” (macchine calcolatrici delle parole), come text predictor, quindi soluzioni probabilistiche che predicono la parola successiva data una sequenza di parole. E questo è certamente vero, ripetiamolo, da un punto di vista ingegneristico. Possiamo anche interpretarli come knowledge engine, nuovi “sistemi” di gestione della conoscenza, come emergenti applicazioni per architetture informative aziendali utili a ottimizzare e performare la circolazione delle informazioni oppure ancora di dialogo e interazione esterna con consumatori e clienti. E questo è anch’esso vero, naturalmente, da un punto di vista economico.

Oppure possiamo, da ultimo, iniziare a considerarli come nuove (forme di) istituzionalità socioeconomiche similmente ad altre più storiche istituzioni umane, come i mercati. Certamente può essere per noi straniante considerare i modelli linguistici su larga scala come istituzionalità, ma non dovremmo poi stupirci più di tanto (Farrell et al. 2025): anche i mercati economici hanno la stessa capacità istituzionale (istituente) di processare l’informazione collettiva tra domanda e offerta (e anche loro, come i large language model, unendo intelligenza e stupidità) per determinare azioni e decisioni collettive.

Un secondo, ulteriore elemento da considerare dentro un approccio che possiamo definire “neoistituzionale” è l’arrivo, poi, degli agenti autonomi dentro la società (oltre che dentro l’economia). Nello sviluppo dell’intelligenza artificiale, la fase successiva all’emergenza dei modelli linguistici su larga scala sono infatti gli agenti artificiali autonomi (Bornet et al. 2025). In effetti, l’era degli artificial autonomous agents avvia la definitiva trasformazione delle macchine da meri strumenti di produzione a sofisticati attori economici sia come macchine consumatrici di servizi sia come macchine creatrici di imprese. Macchine parlanti e transanti insieme, dunque, non senza vulnerabilità e rischi naturalmente.

Una volta dotate di autonomia operativo-cognitiva (AI agents) e da ultimo anche operativo-finanziaria (crypto wallets), le macchine con “menti artificiali” e “portafogli digitali” trasformeranno radicalmente la natura istituzionale dei mercati. Diverranno di fatto dei market maker, dei creatori di nuove forme di mercato. Dunque, sarà una ristrutturazione del concetto di “altro” (come dice bene il dialogo) anche nei mercati e nei suoi “attori” oltre che nei suoi meccanismi di scambio e creazione di fiducia. E forse “mercato” a quel punto non sarà più neppure un termine adeguato a descrivere le nuove logiche e le dinamiche istituenti (Posner e Weyl 2018).

 

Conclusione

Dunque, mentre si continua a discutere di senzienza, coscienza e intelligenza, e di mente delle macchine da paragonare all’evoluzione e alla composizione della mente degli umani (Sejnowski 2025), il dibattito si allarga a ragionare anche delle menti delle istituzioni e delle nuove intelligenze collettive future, umane e non umane e più-che-umane. Per imprese e organizzazioni (e per le loro leadership naturalmente), questo passaggio strategico dal considerare l’intelligenza artificiale come ingegneria “iper-efficiente” al valutarla come ingegneria “ri-strutturante”, e a pensarla come ingegneria “neo-istituente” è e sarà uno dei più complessi che possiamo immaginare. È e sarà la sfida cognitiva cruciale del XXI secolo per le nuove culture e mindset d'impresa. Riuscire a leggere il dialogo tra un direttore e una macchina esplorando tutte e tre le dimensioni evocate è, allora, un significativo esercizio (speculativo forse per ora, ma forse non per molto) di innovazione strategica e culturale per aziende e manager.

 

 

Cosimo Accoto, filosofo delle tecnologie, ricercatore affiliato & fellow (MIT Boston), adjunct professor (UNIMORE), corporate board advisor e startup instructor, ha maturato il suo percorso professionale nella consulenza strategica di management e prima ancora nell’industria dei dati, del software e delle piattaforme. Molti i suoi interessi di ricerca tecnoculturale: filosofia del codice, sensori e dati, automazione e intelligenza artificiale, blockchain, computazione quantistica, realtà estese e metaversi. Pubblica su Economia & Management (SDA Bocconi), Harvard Business Review Italiail Sole 24 OreSistemi & ImpresaAspeniaMIT Sloan Management Review Italia, Civiltà delle Macchine. È autore di un’originale trilogia filosofica sulla civiltà digitale: Il mondo in sintesi (2022), Il mondo ex machina (2019), Il mondo dato (2017) tradotto anche in cinese. Il suo ultimo saggio è Il Pianeta Latente (2024). Ospite di programmi televisivi (Codice, Rai1) e radiofonici (Smart City, Radio24) dedicati all’innovazione culturale e tecnologica, è speaker per TEHA Ambrosetti, Aspen Institute, Harvard Business Review.

 

 

Indicazioni bibliografiche

 

Accoto C. (2024), Il Pianeta Latente. Provocazioni della tecnica, innovazioni della cultura, Egea, Milano.

Accoto C. (2025), L’intelligenza artificiale: soluzione, sistema o istituzione?, SINAPPSI (forthcoming).

Agrawal A., Gans J., Goldfarb A. (2022), Power and Prediction. The Disruptive Economics of Artificial Intelligence, Harvard Business Review Press, Boston.

Bornet P, Wirtz J., Davenport T. H. (2025), Agentic Artificial Intelligence: Harnessing AI Agents to Reinvent Business, Work and Life, Irreplaceable Publishing, New York.

Choudary S. P. (2025), Reshuffle. Who Wins When AI Restack the Knowledge Economy, Future First Books, New York (forthcoming).

Coleman M.C. (2023), Influential Machines. The Rhetoric of Computational Performance, University of South Carolina Press, South Carolina.

Farrell H., Gopnik A., Shalizi C., Evans J. (2025), Large AI Models Are Cultural and Social Technologies, SCIENCE, March 13.

Kockelman P. (2024), Last Words. Large Language Models and the AI Apocalypse, Prickly Paradigm Press, New York.

Posner E., Weyl G. (2018), Radical Markets: Uprooting Capitalism and Democracy for a Just Society, Princeton University Press, Princeton. 

Sejnowski T. J. (2024), ChatGPT and the Future of AI the Deep Language Revolution, The MIT Press, Cambridge.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400