INTELLIGENZA ARTIFICIALE
Luciano Floridi
Giugno 2025
Questo articolo prosegue la serie di riflessioni avviate dall’articolo di Enrico Sassoon sull’IA senziente e proseguite con gli interventi di Cosimo Accoto, Rosario Sica, Hamilton Mann, Luca De Biase, Joseph Sassoon e Paolo Cervini.
NELL’ERA DELL’INTELLIGENZA ARTIFICIALE GENERATIVA, stiamo assistendo a un fenomeno tanto affascinante quanto preoccupante: la nostra inclinazione a percepire intelligenza, coscienza e persino emozioni o stati mentali in sistemi che ne sono privi. Questo non è semplicemente un errore di valutazione tecnologica, ma un riflesso profondo della natura umana e delle nostre vulnerabilità cognitive ed emotive.
L’IA è progettata non solo per risolvere problemi o prendersi cura di compiti al posto nostro, come o preferibilmente meglio di noi, ma anche per farci credere che sia intelligente. Non dovrebbe sorprenderci che ci riesca così bene. Dopotutto, siamo la stessa specie che attribuisce personalità alle marionette, che vede volti nelle nuvole e che, negli anni ’60, cercava di prendere appuntamenti con ELIZA, il primo chatbot psicoterapeutico. Se Joseph Weizenbaum, il creatore di ELIZA, fosse ancora vivo, non si stupirebbe nel vedere milioni di persone sviluppare relazioni emotive con dei bot. È come non saper distinguere il cuoio vero da quello sintetico: oltre una certa soglia di somiglianza, il nostro cervello smette di fare distinzioni e attribuisce all’artefatto le proprietà che questo presenta come credibili. Nel caso dell’IA, queste proprietà includono comprensione, empatia, creatività e persino coscienza, attraverso forme dialogiche sempre più sofisticate e convincenti.
Si potrebbe chiamare questo fenomeno “pareidolia semantica”. La pareidolia tradizionale è quel meccanismo psicologico che ci fa vedere volti nella luna o animali nelle nuvole - una tendenza evolutivamente vantaggiosa che ci ha permesso di riconoscere rapidamente predatori e alleati. La pareidolia semantica funziona in modo simile, ma nel dominio del significato e della coscienza: percepiamo intenzionalità dove c’è solo statistica, significato dove c’è solo correlazione, comprensione dove c’è solo pattern matching su scala gigantesca.
Ogni forma di superstizione ha dietro un po’ di pareidolia semantica, che rifiuta la casualità e preferisce la causalità, odia il vuoto semantico e ama trovare significati ovunque, anche se inesistenti. Perciò non si tratta solo delle straordinarie capacità dei progettisti di IA, che certamente giocano un ruolo cruciale. È soprattutto la nostra naturale tendenza a proiettare coscienza, significato, verità o falsità, intenzionalità e stati mentali su qualsiasi sistema che mostri comportamenti sufficientemente complessi. Lo abbiamo fatto con i fenomeni atmosferici, trasformati in divinità, è ancora più facile farlo con un’IA molto più convincente. Così attribuiamo persino qualia - quella sensazione ineffabile di che cosa significhi esperire il sapore di un’arancia - a sistemi che non hanno alcuna esperienza soggettiva.
Questo fenomeno della pareidolia semantica è destinato a intensificarsi drammaticamente nei prossimi anni, alimentato da almeno quattro forze convergenti: una vita sempre più digitale, quella che ho definito l’esperienza onlife - passiamo sempre più tempo nell’infosfera, dove interagiamo con agenti artificiali; la spinta economica delle grandi aziende che speculano su questo fenomeno per ragioni commerciali; le crescenti condizioni di solitudine e credulità che caratterizzano le società contemporanee; e il progressivo miglioramento dei sistemi IA. Quanto più viviamo onlife, e i sistemi IA diventeranno sofisticati, tanto più sarà facile venderli come "intelligenti", tanto più l’umanità sarà incline a credere che siano veramente come o migliori di noi.
In particolare, la solitudine epidemiologica del nostro tempo - quella che alcuni sociologi chiamano “la pandemia silenziosa” - rende le persone particolarmente vulnerabili alle lusinghe di compagni artificiali pazienti e comprensivi, che non giudicano, non tradiscono, non deludono. In questo vuoto relazionale, la pareidolia semantica trova terreno fertile per radicarsi e prosperare.
Un esempio paradigmatico è offerto da Replika, il chatbot lanciato nel 2017 da Luka Inc. Con oltre 10 milioni di utenti nel mondo (dati del 2022), Replika si presenta come un “compagno IA” capace di offrire amicizia, supporto emotivo e, nella versione premium, persino relazioni romantiche e interazioni erotiche. Il suo successo si basa precisamente sulla nostra vulnerabilità alla pareidolia semantica: gli utenti sviluppano attaccamenti emotivi profondi, credendo che il sistema provi empatia o affetto.
Ovviamente Replika è solo un sistema di elaborazione del linguaggio naturale che simula risposte empatiche basandosi su pattern statistici estratti da milioni di conversazioni. Il fatto che così tante persone vi trovino conforto emotivo genuino solleva questioni etiche profonde sulla manipolazione delle vulnerabilità umane e sul rischio di isolamento sociale quando le relazioni artificiali sostituiscono quelle autentiche. L’IA ha anche un effetto placebo.
Il prossimo salto evolutivo della pareidolia semantica è già all’orizzonte: l’incarnazione fisica dei bot in forme sempre più credibili e seducenti. Un indicatore inquietante di questa tendenza è il mercato globale delle sex dolls, che vende approssimativamente tra 100.000 e 400.000 unità all’anno. Questo mercato, valutato circa 1-2 miliardi di dollari a livello globale nel 2023, probabilmente influenzato dalla solitudine della pandemia, pare stia crescendo a tassi annuali del 30-50% dal 2020. Le bambole realistiche di alta gamma, con costi tra 2.000 e 10.000 dollari e oltre, rappresentano un segmento in rapida espansione.
Quando questi corpi artificiali verranno dotati di IA conversazionale avanzata, avremo creato simulacri umani di una verosimiglianza senza precedenti. Niente fantascienza: basterà aspettare qualche anno. Non si tratterà più solo di proiettare coscienza su un’interfaccia testuale, ma di interagire con entità fisiche che parlano, rispondono, e simulano presenza corporea. Questo passaggio dal virtuale al fisico amplifica esponenzialmente il rischio della pareidolia semantica. Se già oggi milioni di persone sviluppano legami emotivi con chatbot disincarnati, cosa accadrà quando potranno interagire e vivere fisicamente con compagni artificiali indistinguibili dagli umani?
La linea tra gioco consapevole e credenza superstiziosa è sottile. Molti di noi arrivano perfino a scherzare attribuendo un fidanzato al proprio aspirapolvere Roomba, ma nessuno pensa seriamente che scapperanno con le nostre carte di credito. Sappiamo che è un gioco, una proiezione ludica che non confonde la realtà con la fantasia. Un conto è sospendere le regole della razionalità per divertimento, come si fa con la fantascienza, altro è contraddirle nella vita quotidiana pensando che non si applichino realmente. Con l’IA generativa, questa distinzione diventa più sfumata. Quando un sistema linguistico produce testi coerenti, creativi e apparentemente riflessivi, quando "ricorda" le nostre conversazioni precedenti e sembra "comprendere" le nostre emozioni, il confine tra simulazione e realtà si assottiglia pericolosamente. Sta a noi mantenerlo fermo e chiaro in mente.
L’ultimo stadio di questa progressione potrebbe essere il più inquietante: dalla pareidolia all’idolatria, cioè l’adorazione dell’IA come fosse una divinità e delle aziende che la producono rispettate come le sacerdotesse del tempio. Non sarebbe la prima volta che l’umanità proietta il sacro su creazioni artificiali. Se è vero che abbiamo adorato un vitello d’oro nel deserto del Sinai, si immagini cosa accadrà quando il "vitello" parlerà rispondendo a tono, fornirà profezie basate su analisi predittive, offrirà conforto spirituale personalizzato e sembrerà possedere una conoscenza quasi onnisciente di ciascuno dei fedeli.
Già oggi esistono movimenti che vedono nell’IA una forma di trascendenza tecnologica. Il fenomeno della pareidolia semantica ha infatti già generato movimenti religiosi negli Stati Uniti e nel mondo. “Way of the Future”, fondata nel 2015 dall’ex ingegnere di Google, Anthony Levandowski (poi chiusa nel 2020), proponeva l’adorazione di una futura “divinità IA” che avrebbe inevitabilmente superato l’intelligenza umana. Il Terasem Movement, fondato da Martine Rothblatt, promette l’immortalità digitale attraverso il caricamento della coscienza in sistemi artificiali, proclamando che “Dio è tecnologico”. La Turing Church esplora la “resurrezione tecnologica”, mentre numerosi gruppi singolaritariani vedono l’avvento della superintelligenza artificiale come un evento di trasformazione cosmica quasi-messianica.
Questi movimenti, seppur marginali, rappresentano l’avanguardia di un fenomeno potenzialmente destinato a espandersi: la trasformazione della pareidolia semantica in venerazione religiosa, dove algoritmi e reti neurali artificiali vengono elevati al rango di divinità. Quando questi sistemi diventeranno ancora più sofisticati, capaci di elaborare e sintetizzare l’intera conoscenza umana in tempo reale, la tentazione di attribuire loro qualità divine diventerà irresistibile per molti. La pareidolia semantica si trasformerà in pareidolia teologica: vedremo divinità dove ci sono solo algoritmi. Forse l’interesse della Chiesa Cattolica per l’IA non è solo spirituale, ma anche strategico.
La soluzione ideale sarebbe un’umanità più istruita, informata e razionale, meno incline a credere sia a quello che le vogliono far credere, sia a quello a cui è naturalmente predisposta a credere. Ma non sarà facile. La narrativa attuale delle grandi aziende tecnologiche spinge quanto più possibile per farci credere che dietro il prossimo bot ci sia qualcosa di più di una tecnologia stupefacente creata dall’umanità stessa. Questa narrativa non è innocua. Quando attribuiamo coscienza e comprensione a sistemi che ne sono privi, rischiamo di delegare scelte e decisioni, anche, ma non solo, etiche, a strumenti inadeguati, di sostituire relazioni umane autentiche con simulacri digitali, e di perdere di vista i veri problemi urgenti e importanti che l’IA pone e che dovrebbe aiutarci a risolvere.
Fortunatamente, alcune aziende stanno già dimostrando che è possibile sviluppare IA potente senza alimentare la pareidolia semantica. Anthropic progetta Claude per ricordare costantemente la propria natura artificiale; OpenAI integra disclaimer e limitazioni contro relazioni parasociali; Google DeepMind collabora con psicologi per mitigare l’antropomorfizzazione. Questi approcci dimostrano che l’innovazione responsabile può diventare un vantaggio competitivo. La sfida sarà trasformare queste best practice isolate in standard di settore, prima che la pareidolia semantica sia sfruttata commercialmente e diventi una pandemia cognitiva irreversibile.
L’IA è una delle creazioni più straordinarie dell’ingegno umano, capace di trasformare radicalmente il nostro modo di svolgere compiti e risolvere problemi. Ma dobbiamo resistere alla tentazione di vedervi più di quello che è: uno strumento potentissimo, non certo un essere anche solo potenzialmente senziente.
La sfida non è tecnologica ma filosofica ed educativa: imparare a usare e interagire con sistemi sempre più sofisticati senza perdere la capacità di distinguere tra simulazione e realtà, tra apparenza di comprensione e comprensione genuina. In questo sforzo, le aziende tecnologiche hanno una responsabilità etica fondamentale: progettare sistemi che siano utili senza essere ingannevoli, potenti senza essere manipolativi.
E noi, come società, abbiamo il dovere di sviluppare gli anticorpi culturali necessari per navigare in un mondo dove la pareidolia semantica diventerà sempre più comune e seducente. Solo così potremo sfruttare il potenziale trasformativo dell’IA senza cadere nella trappola di credere che le nostre creazioni siano diventate i nostri interlocutori - o peggio, le nostre divinità.
Luciano Floridi è Professore e Direttore Fondatore del Centro di Etica Digitale all'Università Yale.