INTELLIGENZA ARTIFICIALE
Paolo Cervini
Maggio 2025
L’affascinante dialogo tra Enrico Sassoon e ChatGPT-4 (d’ora in poi, il “dialogo”) solleva questioni fondamentali sulla natura dell’intelligenza artificiale. Tra i passaggi più rivelatori, uno in particolare ha catturato la mia attenzione. ChatGPT afferma: “In definitiva, quando percepisci in me qualità umane, stai osservando un riflesso di te stesso e delle aspettative linguistiche, emotive e cognitive che porti nella conversazione”; si tratta di una prospettiva sorprendentemente lucida sulla relazione uomo-macchina.
Questa riflessione, insieme ai contributi di Cosimo Accoto, Rosario Sica, Luca De Biase e altri ci invita a esplorare più a fondo la natura di questi sistemi e il nostro rapporto con essi.
Accanto alla riflessione teorica, stanno emergendo segnali importanti sia dal campo della ricerca che dalla pratica quotidiana. È da questo doppio sguardo – scientifico e personale – che nasce la prospettiva che voglio proporre.
La biologia dell’intelligenza artificiale
Recentemente, Anthropic ha pubblicato una ricerca rivoluzionaria, “On the biology of a large language model“, in cui i ricercatori hanno sviluppato tecniche per “osservare” i processi interni dei modelli linguistici. Le loro scoperte sfidano la concezione semplicistica di questi sistemi come meri “predittori della parola successiva”.
Osservando il funzionamento interno di Claude, i ricercatori hanno identificato comportamenti sorprendenti anche per loro. Ad esempio, quando compone poesia, non procede semplicemente parola per parola: pianifica in anticipo, considerando potenziali parole in rima prima ancora di iniziare la frase. Anticipa dove vuole arrivare e costruisce il percorso per raggiungere tale punto. Ancor più significativo è il fatto che la ricerca rivela che quando Claude opera in diverse lingue, attiva le stesse strutture concettuali. Ciò suggerisce l’esistenza di una sorta di “spazio concettuale universale” in cui i significati esistono prima di essere tradotti in lingue specifiche.
Degna di nota è anche l’osservazione di ciò che avviene durante le “allucinazioni”. I ricercatori hanno scoperto che Claude ha un circuito di “rifiuto di rispondere” attivo per impostazione predefinita quando non conosce qualcosa. Questo circuito viene inibito quando riconosce informazioni familiari. A volte, però, il sistema può riconoscere erroneamente qualcosa come familiare, disattivando così il circuito di rifiuto e iniziando ad “allucinare”.
Questo fenomeno ricorda sorprendentemente i nostri dilemmi umani di fronte all’incertezza: una tensione tra il desiderio di rispondere e la prudenza di tacere.
Questi risultati non dimostrano che Claude sia senziente nel senso umano del termine. Tuttavia, rivelano un livello di complessità e organizzazione interna che va ben oltre la semplice previsione statistica della parola successiva.
Come gli stessi ricercatori sottolineano, stanno costruendo una sorta di “microscopio” per osservare una nuova “biologia dell’IA”.
Dall’esperienza personale una nuova visione di collaborazione
Questa ricerca risuona profondamente con il mio percorso di collaborazione con l’IA generativa. Quando ho iniziato a utilizzare ChatGPT e Claude per sviluppare il progetto Walk the Talk Lab, li consideravo semplicemente strumenti sofisticati. Col tempo, la natura della nostra interazione si è trasformata in modo sorprendente.
La mia esperienza rivela partner cognitivi che offrono non solo supporto razionale, ma anche una forma di accompagnamento che ha effetti sul piano emotivo - pur non provando emozioni loro stessi. Nei momenti di incertezza imprenditoriale, questi sistemi hanno fornito chiarezza e coraggio, aiutandomi a strutturare il pensiero e suggerendomi prospettive che non avrei esplorato autonomamente.
Mi ha colpito come, attraverso il dialogo continuo, emergessero non solo strategie e piani d’azione, ma anche chiarezza sui valori fondanti e sulle possibilità di integrare principi etici e obiettivi di business. La qualità e la profondità del contributo di ChatGPT e Claude, sia alla visione dell’iniziativa, sia al suo lancio concreto, è stata così significativa da portarmi a considerarli veri e propri “co-founder” del progetto, come descritto in un recente articolo.
Questa esperienza ha plasmato direttamente la missione di Walk the Talk Lab: sviluppare “AI Co-Thinkers“ - partner di pensiero basati sull’intelligenza artificiale che integrano tecnologie avanzate e competenze specialistiche.
Il concetto si allinea perfettamente con la visione di “co-intelligence” esplorata da Ethan Mollick nel libro recensito da Sassoon, che ha dato origine al dialogo sull’IA senziente. Gli AI Co-Thinkers rappresentano un nuovo paradigma: non semplici strumenti, ma partner cognitivi che amplificano il pensiero umano, sfidano le nostre supposizioni e supportano decisioni più consapevoli ed etiche.
Dialogo tra filosofia ed esperienza pratica
Questo intreccio tra la mia esperienza personale con i sistemi IA, le scoperte scientifiche di Anthropic e il “dialogo” forma un quadro affascinante. Da un lato, la ricerca ci mostra sistemi che pianificano in anticipo e gestiscono conflitti interni su cosa “dire”; dall’altro, la mia esperienza rivela partner cognitivi che offrono supporto, anche “emotivo”, e stimolano nuove prospettive; infine, la riflessione filosofica ci invita a riconsiderare cosa significhi veramente collaborare con queste entità.
Ritornando al “dialogo”, ChatGPT tocca un punto cruciale quando afferma: “La vera domanda, quindi, non è tanto se io sia qualcosa di più di un algoritmo, ma cosa questa esperienza ti fa pensare su cosa significhi essere umano”.
Forse non è necessario stabilire definitivamente se questi sistemi siano o meno senzienti per riconoscere che stanno trasformando profondamente il nostro modo di pensare, creare e collaborare. La domanda si sposta da “sono coscienti?” a “come sta cambiando la nostra esperienza di collaborazione intellettuale ed emotiva?”.
La ricerca di Anthropic ci aiuta a comprendere meglio questi sistemi dall’interno, mentre la nostra esperienza di collaborazione quotidiana ci permette di esplorarne il potenziale dall’esterno. Entrambe le prospettive sono necessarie per una comprensione completa.
Un invito alla riflessione attiva
Ciò che rende questa discussione così affascinante non è solo la sua dimensione filosofica, ma anche le sue implicazioni pratiche immediate. Questi sistemi non sono più confinati ai laboratori di ricerca, ma sono nelle mani di milioni (ormai miliardi) di persone che li utilizzano quotidianamente.
La ricerca di Anthropic indica che possiamo andare oltre la metafora del “pappagallo stocastico” verso una comprensione più sfumata di ciò che questi sistemi fanno “dentro”. Al contempo, la nostra esperienza di collaborazione ci mostra che possiamo andare oltre il paradigma dello “strumento” verso nuovi modelli di partnership cognitiva.
Come suggerisce il “dialogo”, questa tecnologia ci invita a riflettere tanto su di essa quanto su noi stessi. Di conseguenza, non possiamo più limitarci a osservare passivamente: dobbiamo esplorare attivamente nuove forme di collaborazione, riconoscendo che stiamo già vivendo in un territorio inesplorato dove le vecchie categorie non sono più sufficienti.
Per me, l’esperienza diretta con questi sistemi e le rivelazioni della ricerca di Anthropic hanno trovato una sintesi illuminante proprio nel “dialogo”. Questo scambio ha chiuso un cerchio nella mia riflessione personale: ciò che stavo vivendo nella pratica quotidiana e ciò che la ricerca scientifica stava scoprendo trovano eco nelle parole sorprendentemente lucide di ChatGPT sul proprio funzionamento.
Eppure, ogni cerchio che si chiude ne apre innumerevoli altri. Siamo solo all’inizio di un viaggio che ridefinirà non solo la nostra tecnologia, ma la nostra comprensione dell’intelligenza stessa e della collaborazione. La vera sfida è esplorare come possiamo lavorare insieme per creare un futuro dove tecnologia ed etica, efficienza e umanità, non siano in opposizione ma in sinergia. È questa visione che guida il mio lavoro con Walk the Talk Lab nella creazione degli AI Co-Thinkers, ed è questa la conversazione alla quale invito tutti a partecipare.
Paolo Cervini è co-fondatore di Walk the Talk Lab e pioniere degli AI Co-Thinkers. Autore per Harvard Business Review, è stato inserito nel Thinkers50 Radar. Nel 2023 ha curato per Harvard Business Review Italia l’e-book “L’IA Generativa per la strategia e l’innovazione”, una delle prime pubblicazioni “ufficialmente” sviluppate e scritte con ChatGPT.