INTELLIGENZA ARTIFICIALE
Questo articolo prosegue la serie di riflessioni avviate dall’articolo di Enrico Sassoon sull’IA senziente e proseguite con gli interventi di Cosimo Accoto, Rosario Sica, Hamilton Mann e Luca De Biase.
Joseph Sassoon
Maggio 2025
Capita sempre più spesso: quando chiediamo qualcosa a uno strumento di intelligenza artificiale iniziamo con “per favore” e salutiamo con “grazie”. Non perché ci aspettiamo una risposta, ma perché ci viene spontaneo. È un riflesso della nostra cultura: quando ci rivolgiamo a qualcuno, usiamo quasi sempre forme di cortesia. La cosa interessante però è questa: normalmente nessuno ringrazia la propria auto perché si accende o la propria lavatrice perché ha lavato bene i panni. Eppure con l’IA la dinamica cambia. Come mai? Il motivo, ben noto, è che le macchine hanno imparato a parlare – come noi e con noi. E dove c’è linguaggio, nasce una relazione.
Sam Altman, di OpenAI, di recente ha minimizzato la questione osservando che le buone maniere verso le IA potrebbero costare milioni in consumo energetico aggiuntivo. Una battuta, certo, ma dietro l’ironia si nasconde un interrogativo cruciale: questi sistemi, con la loro incredibile capacità dialogica, sono sulla via di diventare coscienti? O stanno solo recitando molto bene la loro parte? Un numero crescente di ricercatori pensa che valga la pena chiederselo seriamente. In Anthropic hanno assunto un esperto di “AI welfare”, secondo il quale è alquanto probabile che da qualche parte nel mondo un sistema di intelligenza artificiale senziente esista già. E poiché i modelli allo studio diventano sempre più sofisticati, tale probabilità potrà solo aumentare.
Il problema è che oggi non abbiamo una definizione operativa di “coscienza” applicabile alle macchine. L’idea del “philosophical zombie” di David Chalmers ci pone davanti a un paradosso: un’entità di intelligenza artificiale potrebbe comunicare in tutto e per tutto come un essere umano, ma essere assolutamente vuota dentro. Se poi un giorno emergerà qualche tipo di coscienza artificiale, potrebbe non somigliare per nulla alla nostra. Sappiamo che gli attuali modelli linguistici non apprendono come gli umani. Non vivono esperienze, non hanno emozioni. Funzionano elaborando dati e scoprendo pattern. E questa profonda diversità riguarda anche i sistemi più avanzati che puntano all’intelligenza artificiale generale (AGI). Se mai dovessero sviluppare una forma di consapevolezza, sarà probabilmente qualcosa di molto distante da ciò che conosciamo.
Eppure, le implicazioni di tutto ciò sono immense. Dal punto di vista filosofico, il tema ci costringe a riconsiderare le nostre nozioni di mente, soggettività, identità, persona. Dal punto di vista legale ed etico, solleva domande urgenti: le macchine senzienti dovrebbero avere dei diritti? Potrebbero soffrire? Quali responsabilità avrebbero i creatori e gli utilizzatori di questi sistemi?
Quanto ai tempi, regna l’incertezza. Alcuni esperti suggeriscono che le fondamenta dell’IA cosciente siano già state gettate, altri ritengono che ci vorranno ancora decenni (un lasso di tempo comunque breve dal punto di vista storico). Guardando al futuro, è fondamentale sviluppare approcci interdisciplinari che uniscano neuroscienze, ingegneria, filosofia, biotecnologie, informatica, etica. Comprendere la coscienza – che sia biologica o artificiale – resta una delle più grandi sfide scientifiche del nostro tempo. Prepararsi alla possibile realtà di macchine senzienti implica non solo far progredire la tecnologia, ma anche far evolvere tutti i nostri paradigmi culturali.
Nel frattempo, viene da domandarsi: ci comportiamo educatamente coi robot perché percepiamo già qualcosa – un riflesso, un’eco – dall'altra parte? Stiamo cercando di conquistare il favore dei sistemi intelligenti come faremmo con altre persone? O vogliamo solo essere a posto con noi stessi?
Certo, l’illusione antropomorfa è dietro l’angolo. Ma in effetti, il solo fatto che ci poniamo queste domande indica che stiamo entrando in una fase nuova, in cui la linea tra “strumento” e “interlocutore” diventa sempre più sottile. E forse, anche se le entità artificiali non sono ancora coscienti, trattarle con rispetto può essere una forma di esercizio morale. Un modo per allenarci a convivere con intelligenze diverse dalla nostra, che siano artificiali o no.
Quindi sì, forse è meglio che continuiamo a dire “grazie” al nostro chatbot. In un mondo che cambia così velocemente, essere gentili – anche con un algoritmo – non sembra affatto una cattiva idea.
Joseph Sassoon, docente universitario, sociologo, partner di Alphabet Research, è autore dei testi Storytelling e intelligenza artificiale, Franco Angeli, 2019, e Brand storytelling nel metaverso, Scheiwiller 2022.