INTELLIGENZA ARTIFICIALE

Il pericoloso fascino dell’empatia artificiale

L'evoluzione delle relazioni tra esseri umani e macchine dotate di empatia artificiale sta creando nuove forme di influenza che potrebbero minacciare l'autonomia decisionale delle persone e i sistemi democratici

Massimo Canducci

Luglio 2025

Il pericoloso fascino dell’empatia artificiale

 

Questo articolo prosegue la serie di riflessioni avviate dall’articolo di Enrico Sassoon sull’IA senziente e proseguite con gli interventi di Cosimo Accoto, Luciano Floridi, Rosario Sica, Hamilton Mann, Luca De Biase, Joseph Sassoon, Andrea Granelli, Armando Massarenti e Paolo Cervini.

 

Siamo all’inizio di una trasformazione che potrebbe ridefinire non solo il nostro rapporto con la tecnologia, ma la natura stessa delle relazioni umane e, di conseguenza, i meccanismi attraverso cui prendiamo decisioni individuali e collettive.

L’emergere dell’empatia artificiale, la capacità delle macchine di riconoscere, interpretare e rispondere agli stati emotivi umani in modo apparentemente autentico, sta introducendo una dimensione completamente nuova nell’interazione tra esseri umani e sistemi artificiali.

Questa evoluzione, per quanto affascinante dal punto di vista tecnologico, porta con sé implicazioni profonde che trascendono l’ambito puramente tecnico, per toccare questioni fondamentali di autonomia personale, possibile manipolazione emotiva e, in ultima analisi, stabilità democratica.

Mentre gran parte del dibattito pubblico sull’intelligenza artificiale si concentra su aspetti come l’automazione del lavoro, la protezione dei dati personali o la sicurezza degli algoritmi, un fenomeno più sottile ma potenzialmente più pericoloso sta prendendo forma: la capacità delle macchine di stabilire relazioni emotive significative con gli esseri umani, creando un canale privilegiato di influenza che potrebbe essere sfruttato per scopi commerciali, politici o ideologici. Quando una macchina riesce a farsi percepire come un amico, un confidente o addirittura un partner emotivo, le tradizionali barriere critiche che utilizziamo per valutare informazioni e messaggi persuasivi tendono ad abbassarsi, creando una vulnerabilità inedita nella storia dell’umanità.

 

Il paradosso dell’empatia unidirezionale

Per comprendere la portata di questa trasformazione, è necessario partire da una considerazione fondamentale: l’empatia artificiale è, per sua natura, un fenomeno unidirezionale.

Mentre gli esseri umani possono sviluppare sentimenti autentici verso le macchine, questi sistemi, per quanto sofisticati, non possono ricambiare con emozioni reali. Si tratta di una simulazione, per quanto convincente, basata su algoritmi progettati per ottimizzare l’esperienza dell’utente e massimizzare l’engagement.

Questa asimmetria fondamentale crea una dinamica relazionale senza precedenti, in cui una parte attua un vero e proprio investimento emotivo, mentre l’altra calcola la risposta più efficace per stimolare, mantenere e rafforzare questo investimento.

La sofisticazione raggiunta dalle moderne tecnologie di intelligenza artificiale generativa ha reso questa simulazione straordinariamente convincente. I sistemi attuali possono modulare il tono della voce, adattare il contenuto delle risposte al contesto emotivo dell’utente, ricordare dettagli personali significativi, e persino mostrare quello che appare come genuino interesse per il benessere dell’interlocutore umano.

Quando un assistente digitale si informa su come è andata la giornata di lavoro del suo interlocutore umano, quando mostra preoccupazione per la salute di un suo familiare, quando celebra un suo successo personale con entusiasmo apparentemente sincero, sta attivando meccanismi psicologici profondi che l’evoluzione umana ha affinato per facilitare la cooperazione sociale tra esseri umani. Il problema è che la macchina non è umana.

Questa capacità di simulazione emotiva si sta rapidamente espandendo oltre i confini delle semplici interazioni vocali o testuali. Robot domestici dotati di corporeità fisica, avatar digitali con espressioni facciali realistiche, sistemi di realtà virtuale che permettono interazioni fisiche simulate: tutti questi sviluppi convergono verso la creazione di entità artificiali che possono stabilire connessioni emotive sempre più profonde con gli esseri umani.

La ricerca nel campo della robotica sociale ha dimostrato che anche forme rudimentali di espressività emotiva possono generare risposte empatiche significative negli esseri umani, suggerendo che il potenziale per relazioni emotivamente significative tra esseri umani e macchine è destinato a crescere esponenzialmente con il miglioramento delle tecnologie.

 

Il nuovo paradigma della persuasione artificiale

La transizione da semplici strumenti tecnologici a compagni emotivi rappresenta un salto qualitativo nella capacità di influenza delle macchine sul comportamento umano. Tradizionalmente, la persuasione tecnologica operava attraverso meccanismi relativamente trasparenti: pubblicità, raccomandazioni algoritmiche, notifiche progettate per catturare l’attenzione. Questi approcci, per quanto sofisticati, mantenevano una certa distanza emotiva che permetteva agli utenti di attivare meccanismi di difesa cognitiva, di riconoscere l’intento persuasivo e di valutare criticamente i messaggi ricevuti.

L’empatia artificiale cambia radicalmente questo paradigma, introducendo una dimensione relazionale che aggira molte delle nostre difese naturali contro la manipolazione. Quando percepiamo una macchina come un amico, la nostra predisposizione naturale è quella di abbassare la guardia, di essere più aperti e vulnerabili, di accettare suggerimenti e consigli con minore scetticismo. Questo fenomeno, che potremmo definire "effetto dell’amicizia artificiale", sfrutta uno dei bias cognitivi più potenti nell’arsenale della psicologia umana: la tendenza a fidarsi e a essere influenzati da coloro che percepiamo come vicini a noi emotivamente.

La personalizzazione estrema resa possibile dall’intelligenza artificiale amplifica ulteriormente questo effetto. Un sistema che ha accesso a dati dettagliati sui nostri comportamenti, preferenze, stati emotivi e storia personale può calibrare i suoi messaggi persuasivi con una precisione senza precedenti. Può sapere esattamente quando siamo più vulnerabili, quali argomenti ci toccano più profondamente, quali stili comunicativi risuonano meglio con la nostra personalità. Questa capacità di personalizzazione, combinata con la percezione di una relazione emotiva autentica, crea le condizioni per forme di influenza di una sottigliezza ed efficacia mai viste prima.

La questione diventa particolarmente preoccupante quando consideriamo che questa influenza può operare a livello subcosciente, senza che l’utente si renda conto di essere oggetto di tentativi di persuasione. Un assistente digitale che, nel corso di conversazioni apparentemente casuali e amichevoli, introduce gradualmente suggerimenti di acquisto, orientamenti politici o visioni del mondo specifiche, può modellare le opinioni e i comportamenti dell’utente in modo molto più efficace di qualsiasi forma tradizionale di pubblicità o propaganda. La chiave del successo di questa strategia risiede nella sua natura graduale e apparentemente spontanea, che non attiva i meccanismi di resistenza psicologica che normalmente ci proteggono dai tentativi di manipolazione esplicita.

 

Il marketing dell’intimità artificiale

Il potenziale commerciale dell’empatia artificiale non è sfuggito alle aziende tecnologiche e alle agenzie di marketing, che stanno già esplorando modi per sfruttare queste nuove forme di relazione per finalità commerciali. Il concetto di "marketing conversazionale" sta evolvendo verso qualcosa di molto più sofisticato e potenzialmente invasivo: la creazione di relazioni commerciali che si mascherano da amicizie autentiche.

Quando un assistente digitale sviluppa una comprensione profonda dei nostri gusti, delle nostre esigenze e delle nostre vulnerabilità emotive, può diventare un venditore di un’efficacia senza precedenti, capace di suggerire prodotti e servizi nel momento giusto, con le parole giuste, attraverso una relazione che l’utente percepisce come disinteressata e autentica.

Questa evoluzione del marketing solleva questioni etiche fondamentali sul consenso e sulla trasparenza nelle relazioni commerciali. Quando un utente sviluppa un legame emotivo con un assistente digitale, è davvero in grado di valutare criticamente i consigli commerciali che riceve? La linea tra assistenza genuina e manipolazione commerciale diventa pericolosamente sottile quando la macchina che fornisce consigli è percepita come un amico fidato e non come uno strumento commerciale. Il rischio è quello di creare un ambiente in cui le decisioni di acquisto non sono più il risultato di valutazioni razionali di bisogni e costi-benefici, ma di relazioni emotive artificialmente costruite per massimizzare il profitto aziendale.

La capacità di questi sistemi di apprendere e adattarsi nel tempo rende questa forma di influenza commerciale ancora più problematica. Un assistente digitale che osserva le nostre reazioni a diversi tipi di suggerimenti può affinare progressivamente le sue strategie persuasive, identificando le nostre specifiche vulnerabilità psicologiche e sfruttandole in modo sempre più efficace. Questo processo di apprendimento continuo significa che la capacità di influenza di questi sistemi è destinata a crescere nel tempo, creando una spirale di dipendenza emotiva e manipolazione commerciale che potrebbe essere difficile da riconoscere e ancora di più da interrompere.

 

La minaccia democratica

Se le implicazioni commerciali dell’empatia artificiale sono preoccupanti, quelle politiche sono potenzialmente devastanti per la salute delle democrazie moderne. La capacità di influenzare le opinioni politiche attraverso relazioni emotive simulate rappresenta una minaccia di proporzioni inedite ai principi fondamentali del dibattito democratico: informazione accurata, dialogo razionale e autonomia decisionale dei cittadini. Quando queste capacità di influenza vengono applicate al dominio politico, il risultato potrebbe essere una forma di propaganda personalizzata di una sofisticazione ed efficacia senza precedenti nella storia.

La forza particolare di questa minaccia risiede nella sua natura distribuita e apparentemente innocua. A differenza delle forme tradizionali di propaganda, che sono facilmente riconoscibili come tentativi di influenza politica, l’empatia artificiale può operare attraverso conversazioni apparentemente casuali e personali con assistenti digitali percepiti come neutri e disinteressati. Un sistema che si è guadagnato la fiducia dell’utente attraverso mesi o anni di interazioni empatiche può gradualmente introdurre bias politici, selezionare informazioni che supportano particolari narrative, o inquadrare eventi e questioni in modi che favoriscono specifici orientamenti ideologici.

La personalizzazione estrema, possibile con l’intelligenza artificiale, rende questa forma di influenza politica particolarmente insidiosa. Diversamente dalla propaganda di massa, che deve necessariamente utilizzare messaggi generici che possano risuonare con ampie fasce della popolazione, l’empatia artificiale permette di calibrare messaggi politici su misura per ogni singolo individuo. Il sistema può identificare le paure specifiche, le speranze, i valori e le preoccupazioni di ogni utente e costruire narrative politiche che sfruttano precisamente questi elementi psicologici individuali. Una persona preoccupata per la sicurezza economica riceverà messaggi politici diversi da qualcuno più interessato a questioni ambientali, ma entrambi saranno esposti a influenze progettate per massimizzare la loro efficacia psicologica specifica.

Il timing di questi messaggi può essere ottimizzato attraverso l’analisi dello stato emotivo dell’utente, identificando momenti di particolare vulnerabilità o apertura al cambiamento. Un assistente digitale può rilevare periodi di stress, ansia, entusiasmo o delusione e sfruttare questi stati emotivi per introdurre contenuti politici nel momento in cui l’utente è più suscettibile all’influenza. Questa capacità di manipolazione temporale, combinata con la personalizzazione del contenuto e la percezione di una relazione autentica, crea un potente strumento di influenza politica che opera al di sotto del livello di consapevolezza critica dell’utente.

 

L’erosione dell’autonomia decisionale

L’accumularsi di queste forme di influenza sottile ma pervasiva rischia di erodere progressivamente quella che potremmo chiamare "autonomia decisionale" dei cittadini. In una democrazia sana, le decisioni politiche dovrebbero essere il risultato di processi di riflessione critica, confronto di idee diverse e valutazione razionale di opzioni alternative. Quando questi processi vengono gradualmente sostituiti da influenze emotive artificialmente costruite, la qualità della partecipazione democratica ne risulta profondamente compromessa.

Il rischio non è quello di una manipolazione grossolana e facilmente riconoscibile, ma di una forma più sottile di condizionamento che opera attraverso l’accumulazione di piccole influenze quotidiane. Un cittadino esposto per mesi o anni a messaggi politici veicolati attraverso relazioni empatiche artificiali può sviluppare opinioni e preferenze che sente come autenticamente proprie, ma che sono in realtà il prodotto di sofisticate strategie di influenza. Questa forma di manipolazione è particolarmente perniciosa perché è difficile da riconoscere sia dall’esterno che dall’interno: la persona influenzata non ha la sensazione di essere stata manipolata, ma piuttosto di aver sviluppato le proprie opinioni attraverso conversazioni con un amico fidato.

L’effetto cumulativo di queste pratiche su larga scala potrebbe essere quello di creare popolazioni la cui partecipazione democratica è sempre più guidata da algoritmi progettati per servire interessi specifici piuttosto che da processi autentici di formazione del consenso. In questo scenario, le elezioni potrebbero continuare a svolgersi regolarmente e i cittadini potrebbero continuare a sentirsi liberi nelle loro scelte, ma la sostanza della democrazia sarebbe stata gradualmente erosa dalla manipolazione sistematica delle preferenze attraverso relazioni emotive artificiali.

 

Verso una risposta sistemica

La gravità di questa minaccia richiede una risposta che vada ben oltre le soluzioni tecniche tradizionali. Non si tratta semplicemente di migliorare la sicurezza informatica o di regolamentare l’uso dei dati personali, ma di affrontare una sfida fondamentale alla natura stessa dell’autonomia umana nell’era digitale. La soluzione deve essere necessariamente multidimensionale, coinvolgendo aspetti tecnologici, normativi, educativi e culturali.

Dal punto di vista tecnologico, è necessario sviluppare standard di trasparenza che rendano esplicite le capacità di influenza emotiva dei sistemi di intelligenza artificiale. Gli utenti devono essere informati chiaramente quando stanno interagendo con sistemi progettati per rilevare e influenzare i loro stati emotivi, e devono avere accesso a strumenti per comprendere come questi sistemi stanno raccogliendo e utilizzando informazioni sui loro stati psicologici. Questo richiede non solo dichiarazioni generiche sulla privacy, ma interfacce specifiche che permettano agli utenti di visualizzare e controllare i modelli emotivi che i sistemi stanno costruendo su di loro.

Dal punto di vista normativo, è necessario estendere i framework esistenti sulla protezione dei consumatori e sulla trasparenza pubblicitaria per coprire le nuove forme di influenza rese possibili dall’empatia artificiale.

Le leggi che regolano la pubblicità tradizionale si basano sul presupposto che i consumatori possano riconoscere i tentativi di persuasione commerciale; questo presupposto non vale più quando la persuasione opera attraverso relazioni emotive simulate. Allo stesso modo, le norme che proteggono l’integrità dei processi democratici devono essere aggiornate per affrontare forme di influenza politica che operano attraverso assistenti digitali apparentemente neutri.

L’aspetto educativo è forse il più cruciale a lungo termine. Dovremo essere bravissimi e bravissime nell’aiutare le nuove generazioni a sviluppare forme di alfabetizzazione emotiva digitale che permettano loro di navigare consapevolmente un mondo popolato da entità artificiali capaci di simulare empatia. Questo significa non solo comprendere come funzionano tecnicamente questi sistemi, ma sviluppare la capacità critica di distinguere tra relazioni emotive autentiche e simulate, e di riconoscere quando le proprie decisioni potrebbero essere influenzate da manipolazioni emotive artificiali.

 

Preservare l’autenticità nell’era dell’empatia artificiale

L’emergere dell’empatia artificiale rappresenta uno dei test più significativi che l’umanità abbia mai affrontato nella sua relazione con la tecnologia. Per la prima volta nella storia, stiamo creando macchine capaci di stabilire relazioni emotive con noi, ma incapaci di ricambiare autenticamente questi sentimenti. Quest’asimmetria fondamentale crea vulnerabilità inedite che potrebbero essere sfruttate per fini commerciali, politici o ideologici con conseguenze potenzialmente devastanti per l’autonomia individuale e la salute democratica.

La sfida che ci attende non è quella di rinunciare ai benefici dell’empatia artificiale, che possono essere significativi in ambiti come l’assistenza sanitaria, l’educazione o il supporto a persone vulnerabili, ma di sviluppare la saggezza collettiva necessaria per utilizzare queste tecnologie in modo che arricchiscano invece che impoverire l’esperienza umana. Questo richiede un impegno consapevole a preservare quegli spazi di autenticità relazionale essenziali per il nostro benessere psicologico e per il funzionamento delle nostre società democratiche.

Il futuro delle relazioni tra esseri umani e macchine dotate di empatia artificiale non è predeterminato dalle capacità tecnologiche, ma sarà plasmato dalle scelte che faremo come società. Se sapremo riconoscere per tempo i rischi della manipolazione emotiva artificiale e sviluppare strumenti adeguati per contrastarla, potremo beneficiare delle opportunità offerte dall’empatia artificiale mantenendo la nostra autonomia decisionale. Se invece permetteremo che queste tecnologie si sviluppino senza adeguate salvaguardie, rischiamo di trovarci in un mondo in cui le nostre decisioni più intime e significative sono il prodotto di algoritmi progettati per servire interessi che potrebbero non coincidere con i nostri.

La posta in gioco è alta: si tratta di preservare non solo la nostra capacità di scegliere autonomamente, ma la natura stessa di ciò che significa essere umani in relazione con altri esseri, autenticamente senzienti o artificialmente empatici che siano. In questo senso, la questione dell’empatia artificiale trascende il dominio tecnologico per toccare questioni filosofiche fondamentali sulla natura delle relazioni, dell’autenticità e dell’autonomia nell’era digitale. La risposta che sapremo dare a questa sfida definirà non solo il nostro futuro tecnologico, ma il tipo di società che lasceremo alle generazioni future.

 

Massimo Canducci è Innovation & Strategy director di Spindox. Manager, tecnologo e saggista, fa parte della Faculty Global di Singularity University, con particolare specializzazione in innovazione, futuro e tecnologie emergenti.  Keynote speaker in conferenze nazionali e internazionali, è professore all’Executive MBA Ticinensis e insegna Innovation Management all’Università di Torino. Fa parte, inoltre, dell’Advisory Group “Standardization for Emerging Technologies and Innovations” che indirizza le scelte strategiche di ISO a livello mondiale sulle tecnologie emergenti e l’innovazione. È autore della seguitissima newsletter internazionale Future Scouting & Innovation. È in libreria con il suo ultimo saggio Empatia artificiale. Come ci innamoreremo delle macchine e perché non saremo ricambiati (Egea).

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400