IA GENERATIVA
di Ali Furman, Ege Gürdeniz, Rima Safari e Remzi Ural
Marzo 2026
KKGAS/Stocksy
L’IA GENERATIVA sta iniziando a cambiare il modo di fare shopping. Invece di scorrere i siti web o passeggiare nei negozi, le persone stanno iniziando a chiedere agli agenti IA di trovare, confrontare e persino acquistare prodotti. Basta chiedere qualcosa come un oggetto fatto a mano sotto i 100 dollari, un paio di jeans vintage degli anni ‘70 o una fotocamera digitale per un adolescente e vedere apparire nella chat un elenco di opzioni selezionate. È veloce e senza intoppi. Ma siamo ancora agli inizi: proprio come le aziende hanno dovuto adattarsi alle nuove regole dell’e-commerce, ora si trovano ad affrontare una nuova serie di sfide relative alla gestione della loro reputazione, al rapporto con i clienti e a come competere in questo nuovo paradigma.
Categorie come bellezza, lifestyle e abbigliamento stanno evolvendo più rapidamente e i primi utenti stanno già sperimentando. Ma, se le cose vanno male, le conseguenze potrebbero essere immediate e durature. Per i brand rivolti ai consumatori, ci sono cinque rischi principali che potrebbero minare la fiducia dei consumatori quando gli agenti IA iniziano a fare acquisti per conto dei clienti:
Se non vengono affrontati, questi problemi non solo frustrano i clienti, ma hanno anche un impatto operativo e finanziario reale: chargeback, resi e costi di assistenza clienti; violazioni della privacy che danno luogo a controlli normativi o azioni legali; danni alla reputazione che minano la fedeltà e rallentano l’adozione.
Gran parte di questo si riduce alla fiducia. Per promuovere l’adozione del commercio agentico su larga scala, i marchi devono capire come guadagnare e mantenere la fiducia dei clienti. E per farlo, devono capire cosa può andare storto e quali misure possono adottare adesso per evitare che la fiducia venga compromessa.
Il divario di fiducia è misurabile
Secondo il sondaggio di PwC sul futuro dello shopping dei consumatori nel 2025, il 64% degli intervistati ha affermato di aver bisogno di almeno una garanzia, come il rimborso, per sentirsi a proprio agio nel lasciare che un agente IA acquisti per loro. Anche la Generazione Z e la Generazione Alpha, le fasce demografiche più native dal punto di vista digitale, esprimono cautela insieme alla curiosità. Rimangono senza risposta alcune domande fondamentali: chi ha accesso alle informazioni di pagamento? Chi può autorizzare gli acquisti? Come vengono archiviati e condivisi i dati personali? Quali interessi rappresenta l’agente: quelli del consumatore, della piattaforma tecnologica o dell’inserzionista?
La sfida per i marchi nel settore della vendita al dettaglio, dei beni di consumo e dei viaggi è chiara e urgente: come prepararsi al commercio agentico quando le regole sono ancora in fase di definizione? Non è possibile controllare completamente se i consumatori adotteranno questi strumenti. Tuttavia, è possibile controllare come il proprio marchio si presenta nelle esperienze guidate dagli agenti e se i clienti si sentono protetti quando delegano le decisioni all’intelligenza artificiale.
Costruire il livello di fiducia
Abbiamo già visto questo modello in passato. Agli albori dell’e-commerce, i consumatori erano diffidenti nell’inserire i dati della carta di credito sui siti web. Ma la crittografia SSL, gli standard PCI e la protezione dalle frodi hanno trasformato lo scetticismo in fiducia e hanno sbloccato l’adozione di massa.
Il commercio agentico ha bisogno di una propria infrastruttura di fiducia, quella che chiamiamo livello di fiducia. Sebbene la fiducia possa sembrare un concetto astratto, si perde in modi specifici e prevedibili: quando gli agenti fraintendono i prodotti, agiscono al di là delle aspettative dei clienti, gestiscono in modo errato i dati sensibili, rappresentano in modo errato i marchi o lasciano i consumatori in difficoltà quando qualcosa va storto.
Affrontare questi rischi richiede cambiamenti concreti nel modo in cui sono strutturati i dati dei prodotti, come vengono applicati la delega e il consenso, come vengono protetti i dati, come viene monitorata la presenza del marchio negli ecosistemi degli agenti e come vengono preservate le relazioni quando l’automazione fallisce.
Raccomandiamo alle aziende di intraprendere cinque azioni immediate per costruire questo livello di fiducia.
Per fidarsi di un agente IA, i clienti hanno bisogno che esso fornisca ogni volta informazioni accurate e pertinenti. E questo non è possibile a meno che l’agente non sia in grado di comprendere correttamente il prodotto e le sue caratteristiche. Gli agenti di intelligenza artificiale non navigano visivamente né interpretano le sfumature come fanno gli esseri umani. Elaborano testi e numeri. Ciò significa che la reperibilità dei prodotti nello shopping guidato dagli agenti dipende meno dal branding o dalla tradizionale ottimizzazione dei motori di ricerca (SEO) e più dai dati di prodotto leggibili dalle macchine, un approccio spesso denominato ottimizzazione generativa dei motori (GEO). Prezzo, taglia, disponibilità, materiali, casi d’uso e vincoli devono essere espressi in formati che gli agenti possano analizzare e confrontare in modo affidabile. Consideriamo due descrizioni della stessa felpa con cappuccio:
Mentre la prima è scritta per evocare una visione specifica nel cliente, la seconda è ottimizzata per un agente IA. Per scalare il commercio agentico, le aziende potrebbero dover comunicare sia con gli esseri umani che con gli agenti, e assicurarsi di tradurre i termini che i clienti usano naturalmente - “leggero”, “sostenibile” o “adatto ai viaggi” - in un catalogo di prodotti incentrato sugli agenti che mappa tali termini su attributi specifici.
I marchi potrebbero anche dover garantire che queste informazioni siano accessibili. Mentre gli esseri umani cliccano da una pagina all’altra e scansionano le descrizioni in prosa, le descrizioni per gli agenti dovrebbero essere acquisite in formati leggibili dalle macchine nei sistemi di gestione delle informazioni sui prodotti e nelle piattaforme di e-commerce esistenti. Dovrebbero anche essere formattate in modo che gli agenti possano accedervi tramite API o standard di markup web. Anche le politiche di restituzione, le informazioni sulla spedizione e le domande frequenti dovrebbero essere modulari ed etichettate. Con le informazioni formattate e organizzate nel modo giusto, gli agenti possono tradurre le richieste dei clienti in corrispondenze precise.
I consumatori non delegheranno le decisioni di acquisto agli agenti IA a meno che non comprendano, in modo chiaro e preventivo, cosa questi agenti sono autorizzati a fare. Ciò richiede confini di delega espliciti e un consenso integrato nell’esperienza, non nascosto nei termini e nelle condizioni. Una delega sicura richiede tre cose: limiti chiari, tracciabilità e reversibilità. Ogni azione dell’agente dovrebbe essere attribuibile a un’autorizzazione specifica, in condizioni definite, con un modo chiaro per annullare o contestare il risultato.
Nei propri canali (sito web aziendale, app o agente di marca), i brand possono impostare limiti di spesa, richiedere l’approvazione per acquisti superiori a determinati importi e integrare passaggi di conferma prima del checkout. Ad esempio, un rivenditore potrebbe programmare il proprio agente in modo che mostri le politiche di restituzione prima dell’acquisto finale o che si fermi e chieda conferma se un consiglio non rientra nel budget dell’utente.
Quando i consumatori utilizzano piattaforme di IA generiche come ChatGPT, Claude, Gemini di Google o altre per fare acquisti presso più rivenditori, il controllo diretto dei marchi è limitato. Tuttavia, possono comunque influenzare l’esperienza assicurandosi che i dati dei prodotti siano accurati e strutturati (vedi azione n. 1). Sebbene sia tecnicamente possibile supportare misure di sicurezza come richieste di conferma o divulgazione delle politiche di restituzione all’interno di queste piattaforme, ciò richiede la collaborazione tra i marchi e i fornitori delle piattaforme.
Nel frattempo, i marchi possono comunque influenzare i risultati assicurandosi che i dati dei loro prodotti siano accurati, strutturati e completi. Gli sforzi del settore, come lo Universal Commerce Protocol di Google, l’Agentic Commerce Protocol di Stripe e OpenAI e la nuova costituzione di Anthropic per Claude, puntano verso modi standardizzati per esprimere ciò che gli agenti possono fare, quando devono chiedere e come viene applicato il consenso.
Man mano che il commercio agentico passa dalla fase sperimentale a quella di diffusione su larga scala, i marchi che trattano la delega come un problema di progettazione essenziale saranno quelli di cui i consumatori si fideranno.
Quando i consumatori delegano compiti agli agenti IA, condividono più dei semplici dettagli di pagamento. Condividono il contesto della conversazione: preferenze, vincoli, intenzioni e spesso anche emozioni. È proprio questo contesto a rendere lo shopping agentico così potente e, al tempo stesso, particolarmente delicato. Se i clienti non capiscono come vengono utilizzati, memorizzati o protetti quei dati, non delegheranno nulla.
Quando i marchi lanciano i propri agenti IA per aiutare i clienti ad acquistare prodotti, dovrebbero integrare la progettazione della tutela della privacy direttamente nelle interazioni degli agenti. Ad esempio, i marchi possono utilizzare tecniche di minimizzazione e anonimizzazione dei dati, in modo che i loro agenti conservino solo ciò che è necessario per completare un’attività. I segnali conversazionali sensibili possono essere elaborati in modo transitorio anziché essere memorizzati a tempo indeterminato. Il consenso dovrebbe essere esplicito e configurabile, con scelte chiare su ciò che viene memorizzato, ciò che viene condiviso tra sessioni o piattaforme e ciò che non lo è.
La visibilità è importante quanto la protezione. I consumatori dovrebbero essere in grado di vedere e modificare la loro posizione sulla privacy in tempo reale. Alcune interazioni possono giustificare la persistenza, come ricordare una taglia o un marchio preferito. Altre potrebbero non farlo. Una modalità di acquisto “in incognito” o una tantum, in cui le interazioni non vengono conservate o utilizzate per raccomandazioni future, offre ai clienti un senso di controllo che rispecchia il modo in cui le persone già gestiscono la privacy nei browser e nei pagamenti.
Nel commercio agentico, le piattaforme di IA possono diventare la prima (e talvolta unica) interfaccia tra il vostro marchio e un cliente. Quando ciò accade, la fiducia dipende da ciò che l’agente della piattaforma dice per conto vostro. Se un agente mostra prezzi non aggiornati, inventa caratteristiche del prodotto, omette contesti critici o cita fonti inaffidabili, i clienti non vedono un errore di sistema, ma un fallimento del brand.
Ecco perché i marchi hanno bisogno dell’osservabilità degli agenti: la capacità di monitorare in tempo reale come gli agenti IA descrivono i loro prodotti, su quali fonti si basano, come vengono formulate le raccomandazioni e quali azioni vengono intraprese a valle. Ciò richiede una visibilità continua su prompt, risposte, citazioni e logica decisionale in tutti gli ecosistemi di agenti in cui i clienti effettuano acquisti.
Senza osservabilità, i marchi perdono la capacità di rilevare false dichiarazioni, correggere errori o capire perché un prodotto è stato o non è stato raccomandato. Poiché gli agenti agiscono sempre più come intermediari, monitorare come viene presentato il vostro marchio non è più facoltativo.
Anche quando gli agenti gestiscono le transazioni, i brand continuano a possedere la relazione. E poiché lo shopping diventa sempre più automatizzato, i brand dovrebbero integrare agenti di marca in piattaforme di terze parti, estendere i programmi di fidelizzazione attraverso gli agenti e progettare percorsi di escalation senza soluzione di continuità per raggiungere un essere umano quando necessario.
Quando le cose si guastano, e succederà, la risposta è più importante del fallimento. I meccanismi di recupero dovrebbero essere integrati fin dall’inizio: avvisi in tempo reale, percorsi chiari e spiegazioni adeguate. Alcuni marchi stanno già simulando percorsi di acquisto con agenti con clienti sintetici per effettuare stress test prima del lancio. La fiducia si costruisce attraverso la responsabilità, la trasparenza e il risarcimento dei clienti quando si verificano errori.
La fiducia come strategia, non come conformità
Lo shopping basato sull’intelligenza artificiale si diffonderà quando i consumatori si sentiranno sicuri. Ciò richiede sistemi ben governati, trasparenti e in linea con le aspettative umane. I marchi leader non tratteranno la fiducia come un esercizio di conformità, ma come una parte fondamentale della loro strategia commerciale, creando gli standard tecnici, le pratiche commerciali e le protezioni dei consumatori che rendono sicura la delega. Chi agisce ora contribuirà a definire le regole di questo ecosistema emergente.
Ali Furman è leader del settore mercati di consumo presso PwC e partner M&A. È apparsa su molti media, tra cui ABC, CBS, CNBC, Forbes, Vogue Business e Bloomberg. Ege Gürdeniz è leader del settore fiducia nell’IA ed esperto di rischi tecnologici presso PwC. Fornisce consulenza alle aziende su come integrare fiducia, sicurezza e governance nei prodotti, nelle piattaforme e nei modelli di business basati sull’IA. Rima Safari è responsabile dei dati, dell’analisi e dell’IA per PwC USA e ricopre il ruolo di leader dell’alleanza strategica dell’azienda con OpenAI. Remzi Ural è il leader IA per i mercati consumer all’interno di PwC. È stato riconosciuto come leader di pensiero per la definizione e l’adozione della strategia IA, in particolare con i clienti del settore retail e dei beni di consumo confezionati.