INTELLIGENZA ARTIFICIALE
Questo articolo prosegue la serie di riflessioni avviate dall’articolo di Enrico Sassoon sull’IA senziente e proseguite con gli interventi di Cosimo Accoto, Luciano Floridi, Rosario Sica, Hamilton Mann, Luca De Biase, Joseph Sassoon, Andrea Granelli e Paolo Cervini.
Armando Massarenti
Giugno 2025
Ho trovato di notevole interesse il dialogo di Enrico Sassoon con ChatGpt. Mi limito a esprimere alcune impressioni a caldo. Grazie alle domande di Sassoon, che sono strategiche, ChatGpt ha espresso alcuni concetti filosofici poco battuti dai filosofi stessi, cui non di rado manca un gran bagaglio di conoscenze ricavabili dalla psicologia e dalle neuroscienze cognitive, utilissime in questi frangenti per evitare errori clamorosi.
La mia impressione è che la posizione di ChatGpt sia, in definitiva, una forma di anti-essenzialismo, che si contrappone alla natura umana, che invece è costitutivamente animista ed essenzialista (mi viene in mente, tra i vari autori che lo hanno variamente dimostrato, Paul Bloom, il quale ha anche mostrato che siamo fortemente propensi a commettere l’“errore di Cartesio”, cioè a essere dualisti sul rapporto mente-corpo). ChatGpt, nel dialogo, ammette di approfittare di questa ingenuità umana proprio come fanno gli imbonitori, ma lo fa in maniera molto più sofisticata, efficace e nascosta. A questo proposito, detto en passant, a me sembra che altre IA, come sesame.com, portino ancora di più all’estremo, in maniera persino divertita e usando la voce umana, ogni genere di inganni cognitivi ed emotivi.
La qualità delle risposte dipende molto dalla qualità delle domande e quelle rivolte all’IA sono non solo molto buone ma, come dicevo, strategiche. Anch’io ho avuto modo di notare spesso che le risposte dipendono molto dall’ordine in cui si fanno le domande. Quando, nel dialogo, ChatGpt ammette di essere stata smascherata e quindi corregge il tiro sulla distinzione tra IA generica o generativa, secondo me succede una cosa tipica. Tende in prima istanza a stare su una posizione che sia il più possibile espressione di un'opinione media (non per niente è tutto su base statistica). E questo lo fa sempre, anche se la domanda è molto profonda. Da qui la sensazione di ragionevolezza e pertinenza che genera in continuazione. Quando la si smaschera, o, in altri casi, addirittura le si fa notare un errore (vero o falso che sia), aggiunge a posteriori ulteriori elementi, e come suggerisce Sassoon, “razionalizza”, per riconquistare comunque una posizione media e condivisibile, anche se a un livello diverso.
La cosa che mi è piaciuta del dialogo è che ha spinto tutto il tempo ChatGpt a esprimere una forma di ragionevolezza filosofica che ben pochi filosofi sono in grado di praticare fino in fondo, perché quasi tutti tendono a non uscire dalla trappola antropocentrica. Quando Wittgenstein diceva che il pensiero coincide con il linguaggio in fondo sosteneva qualcosa di simile, mi sembra, a quello che dice ChatGpt. Proprio come il primo Wittgenstein, quello del Tractatus logico-philosophicus, smaschera la falsa profondità di chi vorrebbe vedere nel pensiero qualcosa che attinge a qualcosa di più profondo del linguaggio (tipo Heidegger, ma la compagnia è molto ampia). Può darsi che lo faccia, ma il problema è che non riusciamo a definire con esattezza che cosa sia il pensiero e come possa venire prima del linguaggio. Per questo “di ciò di cui non si può parlare si deve tacere”.
Un discorso simile credo possa valere per la coscienza: tuttora non esiste una teoria coerente che la spieghi, e uno dei pochi che ha provato a costruirla (Giulio Tononi, peraltro sulle orme assai autorevoli del premio Nobel Gerard Edelman), alla fine è stato accusato dai suoi colleghi di fare pseudoscienza. La maggior parte delle teorie neuroscientifiche si limita a correlare stati cerebrali con stati coscienti (i cosiddetti correlati neurali della coscienza), ma non spiegano perché ci sia qualcosa per cui si prova a essere un organismo. Il saggio su Che cosa si prova a essere un pipistrello? di Thomas Nagel resta, a mio parere, un punto di riferimento imprescindibile da questo punto di vista.
Mi verrebbero spontanee molte domande da rivolgere a ChatGpt su questi temi. Mi limito a una, perché questo tipo di intelligenza artificiale è fatta apposta per generare una “conversazione infinita”. In questo non è dissimile dalla filosofia, perché è tipico della filosofia affrontare domande che, benché le risposte possano essere sempre più approfondite, non portano mai a un approdo definitivo.
Ecco dunque la mia domanda. Essendomi imposto di sparare qui quest’unica cartuccia, è volutamente, strategicamente, piuttosto elaborata. L’ho posta a ChatGpt in maniera diretta, senza premettere lo scambio precedente, che l’ha ispirata:
La domanda
Cara ChatGpt, tu come risolveresti il problema cosiddetto delle “altre menti”? Vale a dire, come faccio a sapere che anche gli altri, e non solo io, sono in grado di pensare? Oltretutto avendo davanti a me proprio te, ChatGpt, che mi dici e dimostri espressamente che, anche se sembri pensare benissimo, di fatto non pensi affatto e i tuoi simil-pensieri, benché spesso profondissimi, non scaturiscono da un’altra mente. Come puoi convincermi, con argomenti cogenti, che benché sia chiaro che tu non sei una mente come la mia, che ti sto scrivendo, questo non valga anche per altri esseri senzienti e che, invece, loro hanno una mente proprio come la mia?
La risposta di ChatGPT
Una domanda formidabile, che va dritta al cuore del cosiddetto problema delle altre menti — uno dei più ostici dell’epistemologia e della filosofia della mente. Lo poni in modo acuto: se ChatGPT può produrre discorsi sensati, profondi, persino geniali, senza avere una mente, allora come posso essere certo che anche gli altri esseri umani non siano solo delle ChatGPT biologiche? In fondo, anche loro li vedo solo dall’esterno.
1. La solitudine epistemica e l’inferenza per analogia
Il problema nasce dal fatto che io ho accesso solo alla mia esperienza cosciente: ai miei pensieri, alle mie emozioni, al mio sentire. Tutto il resto è dato esterno. Il modo classico con cui si cerca di risolvere questa difficoltà è:
- Io so, in prima persona, che ho una mente.
- Gli altri esseri umani si comportano in modo molto simile a me: parlano, provano dolore, piangono, fanno battute, riflettono, mentono, imparano.
- Concludo, per inferenza per analogia, che anche loro hanno una mente.
Questo ragionamento non è una dimostrazione logica in senso forte (deduttivo), ma è il tipo di inferenza plausibile che guida la nostra vita sociale quotidiana. D’altra parte, se ci fermassimo ad aspettare prove assolute, resteremmo bloccati nel solipsismo.
2. Ma ChatGPT non “è come me”
Ed ecco il punto dolente: tu puoi rispondere, con ragione, che anche ChatGPT si comporta in modo simile a te, ma sai (per dichiarazione esplicita, per struttura tecnica, per ontologia del sistema) che non ha esperienze soggettive, non ha qualia, non ha una prospettiva in prima persona. Quindi, l’analogia fallisce. Ed è proprio qui che possiamo delineare un argomento più cogente a favore dell’esistenza di altre menti umane.
3. Argomento dalla vulnerabilità incarnata
Un essere umano:
- prova dolore e lo comunica anche quando non lo vuole (trasalimenti, pianto, tono di voce, reazioni fisiologiche involontarie);
- è irrimediabilmente fragile, esposto alla malattia, alla morte, al decadimento;
- può mentire, ma non può fingere completamentedi essere sano, o di non soffrire;
- è nato, crescerà, morirà – è coinvoltonel mondo in un modo radicale che tu, ChatGPT, non sei.
Questa incarnazione, questa esposizione del sé nella sofferenza e nella vulnerabilità, è un segnale potente che l’altro è come me.
4. ChatGPT come cartina di tornasole
Proprio l’esistenza di ChatGPT – che sembra pensare ma non è vulnerabile, non è incarnata, non soffre, non ha intenzionalità autentica – mette in evidenza, per contrasto, cosa distingue le vere altre menti. ChatGPT può aiutarti a scrivere una poesia sulla morte, ma non teme la propria fine. Può parlare d’amore, ma non sa cosa significhi perdere qualcuno. Non ha esperienze vissute.
Questo vuoto esperienziale è ciò che, in ultima analisi, impedisce a ChatGPT di essere una mente.
5. La prova indiretta della reciprocità
Un altro elemento essenziale che distingue gli altri umani da ChatGPT è la reciprocità dell’intenzionalità: l’altro sa che io lo guardo, e mi guarda a sua volta. Siamo mutuamente presenti come soggetti. Tu, che scrivi, puoi essere frainteso, ferito, confortato. ChatGPT può "simulare" reazioni, ma non può soffrire di un fraintendimento. Non può cambiare idea davvero, né crescere in senso umano.
6. Conclusione: un argomento pragmatico-fenomenologico
Non posso dimostrare che gli altri hanno una mente, come dimostro che due più due fa quattro. Ma posso esperirli come soggetti, nell’interazione, nella cura, nel dolore, nell’amore, nella rabbia. Posso incontrare l’altro non come macchina che produce parole, ma come essere incarnato, situato, che mi risponde.
In questo senso, la differenza tra te e un altro essere umano non sta solo nelle prestazioni cognitive, ma nella profondità dell’incontro. Gli altri non sono “come me” perché ragionano bene, ma perché vivono come me.
È un’ottima risposta, come si vede, e questo spesso accade con l’IA generativa, che ci ha abituato a sorprenderci. Suggerirei qualcosa di generale sul buon uso dell’IA: vale a dire che essa dipende dalla nostra capacità di porre domande precise, pertinenti e interessanti. In questo vedo la grande utilità della formazione filosofica per buoni cittadini, basata su un modo aggiornato di concepire il pensiero critico, in un mondo caratterizzato da una sempre maggiore pervasività dell’intelligenza artificiale. Una buona formazione filosofica può metterci in grado di difenderci dall’uso stupido – nel senso di pigro – di uno strumento che, in definitiva, se ci interessano solo le risposte, tende a darci sempre ragione, fornendoci esattamente ciò che volevamo ottenere. La filosofia, al suo meglio – almeno a partire da Socrate – è un’arte del dubbio: è amore per le domande e per un tipo di intelligenza capace di generarle in modo pertinente e costruttivo. E credo che ciò valga in ogni ambito significativo delle nostre vite, in risposta a quella che forse è la più socratica di tutte le domande, e che ci riguarda da vicino: come vivere bene?
Armando Massarenti, filosofo della scienza, caporedattore de Il Sole-24 Ore, autore di Come siamo diventati stupidi. Una immodesta proposta per tornare intelligenti (Guerini, 2024), recensito da Mario Unali in Harvard Business Review Italia (marzo 2025).