INNOVAZIONE
Filippo Accettella
Maggio 2025
Borges, nel breve racconto “Funes, o della memoria” descrisse un personaggio che, in seguito a un incidente, ricordava tutto sin nei minimi dettagli della più comune delle situazioni. Questo, ben lungi dall’essere un vantaggio, comportava la quasi totale incapacità di un pensiero astratto: “infastidiva Funes che il cane delle tre e quattordici (visto di profilo) avesse lo stesso nome del cane delle tre e un quarto (visto di fronte)”.
Abbiamo un senso biologico del numero, la cui scrittura nei nostri cervelli è addirittura codificata nell’attività di certi geni. Ed è da queste basi innate che abbiamo costruito maestosi edifici concettuali come la matematica. Per quel che ne sappiamo, i numeri e l’aritmetica sono un’invenzione culturale umana piuttosto recente, le cui tracce risalgono a forse 30.000 anni fa. Perché, però, nessun’altra specie oltre all’uomo ha sviluppato un’aritmetica precisa? Forse vi sono aspetti che ancora ci sfuggono nell’associazione tra simboli e rappresentazioni cerebrali delle quantità che magari richiedono abilità speciali possedute solo dalla nostra specie. Oppure, più prosaicamente, può darsi che pressioni di tipo socioculturale abbiano dato l’abbrivio alla nascita dell’aritmetica formale.
In un provocatorio articolo del 2008 (“The end of theory: the data deluge makes the scientific method obsolete”, Wired), il saggista Chris Anderson evidenziò l’effetto che i Big Data avrebbero provocato sulla cultura scientifica: l’irrilevanza del metodo scientifico e la sostituzione della "causalità", sul quale esso si regge, con la "correlazione" tra dati. Infatti, quando sono disponibili "tutti" i dati su uno specifico fenomeno, la ricerca di una causa per ipotizzare un modello che ne spieghi l’esito perde senso.
Scriveva Anderson: "Questo è un mondo in cui enormi quantità di dati e matematica applicata sostituiscono ogni altro strumento che potrebbe essere utilizzato. Fuori da ogni teoria del comportamento umano, dalla linguistica alla sociologia. Dimenticate la tassonomia, l’ontologia e la psicologia. Chissà perché le persone fanno quello che fanno? Il punto è che lo fanno, e possiamo monitorarlo e misurarlo con una fedeltà senza precedenti. Con dati sufficienti, i numeri parlano da soli. [...]”
In sintesi, la provocazione di Anderson era che, per effetto della futura sempre maggiore disponibilità di dati, non avremmo avuto più bisogno di ipotizzare e speculare su nessun fenomeno scientifico, sociale, economico, politico, ecc. “I petabyte ci permettono di affermare che la correlazione è più che sufficiente. Smettiamola di cercare altri modelli e dedichiamoci ad analizzare i dati senza costruire ipotesi”. Anderson, insomma, annunciava trionfante che avremmo dovuto dimenticare “la tassonomia, l’ontologia e la psicologia”.
Cosa è successo nel frattempo?
Negli ultimi anni l’avvento dei Big Data ha reso in effetti possibile una transizione: il "come" dei dati ha sostituito il "perché" delle ipotesi, del metodo scientifico, della statistica. Ciò che conta adesso è applicare sofisticati algoritmi matematici a enormi quantità di dati. Ma è effettivamente così?
Per fortuna no, se lo fosse non ci sarebbe differenza tra umani e macchine, e saremmo già in balia del “machine learning”. Un esempio chiaro lo offre la statistica applicata ai sondaggi elettorali, nei quali sempre più viene impiegata la “sentiment analysis” (attualmente sui testi dei tweet): abbiamo sempre più dati, ma l’interpretazione delle loro cause possono farla solo gli umani (per la complessità dei fenomeni sociali, culturali, politici, ecc. coinvolti). Il metodo scientifico è ancora valido e contraddistingue la creatività umana, lasciando alle macchine il posto che gli spetta: quello di aiutanti algoritmici.
Le conseguenze sociali dei mutamenti indotti dall’avvento delle correlazioni nelle decisioni umane vengono comunque descritte dal sociologo William Davies in un articolo sul Guardian (“How statistics lost their power and why should fear what comes next”). Davies mette in rilievo l’importanza di poter analizzare statisticamente, per scopi di utilità pubblica, i dati generati da società private quali Facebook, Google, ecc. Ciò perché tali dati propongono "evidenze" e non semplici, per quanto importanti, "emozioni". Negli ultimi anni, sostiene Davies, la fiducia nella statistica è in declino nelle democrazie liberali, ad esempio, in Gran Bretagna, una ricerca della Cambridge University e di YouGov ha scoperto che il 52% della popolazione crede che la UE stia gradualmente cercando di impadronirsi di tutti i poteri legislativi nel Paese (tale credenza è poi culminata nella Brexit), e che il 55% della popolazione crede che il Governo stia nascondendo la verità sul numero di immigrati che ci vivono.
Il tecnologo e filosofo David Weinberger, esaminando i risultati del confronto tra intelligenza umana e intelligenza artificiale, di fronte alla maggiore correttezza dei risultati dell’IA ma anche alla sua inspiegabilità umana, conclude che l’IA cambierà il "metodo scientifico" così come noi lo conosciamo. Weinberger scrive: “Se conoscere ha sempre comportato essere in grado di spiegare e giustificare le nostre credenze vere - idea di Platone - cosa ce ne facciamo di un nuovo tipo di conoscenza in cui il compito della giustificazione è non solo difficile o scoraggiante, ma impossibile? Per migliaia di anni abbiamo agito come se la semplicità dei nostri modelli riflettesse la semplicità - l’eleganza, la bellezza, la pura razionalità - dell’universo. Adesso le nostre macchine ci lasciano vedere che anche se le regole sono semplici, eleganti, belle e razionali, il dominio che esse governano è così granulare, così intricato, così interconnesso, con ogni cosa che causa ogni altra cosa, tutto in una volta e per sempre, che i nostri cervelli e la nostra conoscenza non può iniziare a comprenderla. Ci vuole una rete di esseri umani e computer per conoscere un mondo così ben governato dalla contingenza, un mondo nel quale è caos fino in fondo”.
Il tema non è banale e ha un effetto sul mondo della ricerca. L’attuale sistema economico favorisce la concentrazione di risorse, e quindi di capacità di influenza, nelle mani di poche grandi imprese tecnologiche. Ciò significa che ai ricercatori indipendenti è sempre di più negata sia la possibilità di svolgere ricerche sui grandi database delle aziende, sia di vagliare gli studi che queste commissionano al proprio interno. In altre parole, non solo si profila la tendenza a un modello di sapere di tipo oracolare, ma coloro che possiedono e gestiscono gli oracoli sono imprese private. Se davvero la conoscenza passa e passerà sempre di più attraverso i Big Data, e questi non sono – attualmente – accessibili pubblicamente, ma piuttosto appartengono a privati, emerge una questione preoccupante circa gli obiettivi stessi a cui la conoscenza si indirizza: infatti è ragionevole supporre che le aziende tendano a perseguire i propri interessi, e di conseguenza ad orientare anche le azioni di ricerca verso questo fine.
Oggi gli algoritmi utilizzati per analizzare i dati vengono spesso descritti come “scatole nere”, alludendo al fatto che le procedure che consentono di rintracciare correlazioni all’interno di enormi moli di dati sarebbero troppo complesse per essere comprese dalla mente umana. Così si profila una concezione del sapere che potremmo definire oracolare: il responso dell’algoritmo è insindacabile, perché le modalità attraverso le quali viene prodotto rimangono inaccessibili. Non resta quindi che affidarsi agli algoritmi, alle magiche “scatole nere” che, possedendo un’intelligenza superiore alla nostra, sono in grado di districarsi abilmente dove non possiamo, per offrirci in modo semplice e veloce la risposta che stavamo cercando. Che questo avvenga al prezzo di affidare i propri dati, e di delegare la propria facoltà di giudizio, alle aziende che possiedono tali algoritmi, appare tutto sommato un prezzo accettabile da pagare.
Non è questa la sede per analizzare quanto la previsione di Anderson si sia rivelata esatta e chi scrive non ha i titoli per verificarne la portata sul piano epistemologico. Però che l’articolo di Wired segni un clamoroso passaggio culturale è indiscutibile. Anderson ha contribuito ad affermare un nuovo modo di affidarsi alla tecnologia, con un linguaggio epico circa il destino della tecnologia stessa.
I dati svolgono una funzione taumaturgica, guariscono la scienza e curano il presente dall’inesattezza, dalla lentezza e dalla costruzione di ipotesi. I processori, i server e gli algoritmi diventano una nuova trinità cui affidare il progresso. Ciò che colpisce, ancora oggi, è l’atteggiamento di certezza granitica e assoluta sicumera di fronte alle sorti magnifiche derivanti dalla datizzazione del mondo, un mondo che, grazie alla continua epifania dei dati, si sarebbe spiegato da sé. Anderson non mostrava rimpianti circa la scomparsa della domanda "perché". Solo i "cosa" e i "come" rimangono in piedi, in una descrizione apparentemente oggettiva, asettica. Se il punto interrogativo spariva dalla costruzione dei modelli scientifici, cominciava proprio in quegli anni ad arricchire due ragazzi che sugli interrogativi del pianeta hanno costruito una ricchezza senza precedenti. Google prospera oggi su mostruose quantità di dati, sulla correlazione che non spiega e proprio grazie a questo modello fornisce le risposte al mondo intero su tutte le domande possibili e immaginabili. Se Anderson disprezzava i "perché" della scienza, Page e Brin hanno utilizzato tutti i "perché" del pianeta per diventare clamorosamente ricchi.
I dati sono diventati prisma e paradigma del presente. A partire dai dati si prevede e si predice, si interpreta e si discute. Non c’è nulla di male in questo modo di procedere, il problema è che l’approccio dei fanatici dei dati è radicale. Esclude ogni altro approccio, censura quella cosa ostinata e ottocentesca che prende il nome di dialettica. Avremmo dovuto smetterla di immaginare, smetterla di aspettare la mela che casca dall’albero sulla nostra testa; avremmo dovuto scordare la ricerca ostinata di una soluzione che va a sbattere sull’assenza di numeri, perché il sentiero di una scoperta è spesso imprevisto.
Flavio Pintarelli, nell’antologia Datacrazia, ricorda che “la parola "capta" (dal latino "captare", catturare) avrebbe, rispetto alla parola "data", un maggior valore esplicativo dei processi di trattamento e costruzione a cui è sottoposta l’informazione”.
Nella costruzione di Anderson, aggressiva e iper-razionalista, ottimista e scientista, ha però trovato spazio, molti anni dopo, l’irrazionale e la paura. Grazie a una minuziosa profilazione, basata su enormi quantità di dati relative a milioni di persone, qualcuno - Cambridge Analytica - ha orientato il dibattito pubblico e la campagna elettorale della più importante democrazia del pianeta. Sopra milioni di correlazioni fondate su analisi psicografiche, innestate sulle paure delle persone, costruite su immagini farlocche e contenuti falsi, quel qualcuno ha annacquato i pozzi del discorso pubblico.
Nel libro di Cathy O’Neil Armi di distruzione matematica, si trova un’attenta analisi dell’uso degli algoritmi in ambito sociale. Un esempio: nella contea di Broward, in Florida, un algoritmo aiuta a decidere se una persona accusata di un reato debba essere rilasciata su cauzione prima del processo. Tra gli afroamericani, l’algoritmo classifica “ad alto rischio” un numero sproporzionato di individui che però successivamente non commettono nuovi reati. La società che gestisce l’algoritmo sostiene che la metodologia non abbia pregiudizi e che classifica tutti con la stessa accuratezza.
Grazie alla disponibilità di informazioni, siamo di fronte alla creazione di un quarto paradigma accanto alle tre metodologie già esistenti: al metodo sperimentale, a quello teorico-matematico e a quello computazionale, si aggiungerebbe l’approccio consistente nel trattamento di dati alla ricerca di fenomeni ricorrenti.
L’autore di L’algoritmo definitivo Pedro Domingos, afferma che in breve tempo avremo un super-algoritmo che governerà la politica in modo da far declinare la povertà e farci diventare più longevi, felici e produttivi. Ma che una correlazione tra due quantità non dica granché è cosa nota: si potrebbe citare la correlazione tra il numero di pirati e la temperatura media sulla terra, o tra il numero dei divorzi nel Maine e il consumo di margarina negli Usa per accorgersene. Quando si analizzano le cose più in profondità diventa chiaro che un approccio puramente induttivo, basato solo sui Big Data, non può che fallire se si cerca di fare previsioni.
La filosofia su cui si basa l’approccio Big Data sembra dimenticare il fatto che quasi mai la scienza avanza per accumulo di dati, bensì per la capacità di eliminare gli aspetti secondari (quel “difalcare gli impedimenti” di Galileo). E, ovviamente, non è così facile.
Dunque, non convince la retorica su una presunta rivoluzione di cui finora, nonostante le dichiarazioni enfatiche, almeno nella ricerca di base non c’è traccia. L’idea di usare dati e algoritmi per fondare una scienza senza basi teoriche ha bisogno ancora e soprattutto della possibilità di sviluppare senso critico. Ben vengano i Big Data e l’intelligenza artificiale, ma non illudiamoci troppo di fare scienza, almeno quella interessante, in maniera automatica: dobbiamo rassegnarci a studiare e farci venire qualche buona idea.
Come all’inizio, termino con un apologo di Borges: “Chiudo gli occhi e vedo uno stormo di uccelli. La visione dura un secondo o forse meno; non so quanti uccelli ho visto. Era definito o indefinito il loro numero? Il problema implica quello dell’esistenza di Dio. Se Dio esiste, quel numero è definito, perché Dio sa quanti uccelli ho visto. Se Dio non esiste, quel numero è indefinito, perché nessuno ha potuto contarli”.
Filippo Accettella, Head of People Empowerment Enel Italia.