IA GENERATIVA

Ci si può fidare degli agenti IA?

Blair Levin, Larry Downes

Giugno 2025

Ci si può fidare degli agenti IA?

Illustrazione di Barbara Gibson

 

L’IA agentica è diventata rapidamente uno dei settori più attivi dello sviluppo dell’intelligenza artificiale. Gli agenti IA sono un livello di programmazione che si aggiunge ai modelli linguistici di grandi dimensioni (LLM) e che consente loro di lavorare per raggiungere obiettivi specifici. Questo livello aggiuntivo di software è in grado di raccogliere dati, prendere decisioni, agire e adattare il proprio comportamento in base ai risultati. Gli agenti possono interagire con altri sistemi, applicare il ragionamento e lavorare secondo le priorità e le regole stabilite dall’utente come responsabile.

Aziende come Salesforce hanno già implementato agenti in grado di gestire in modo indipendente le richieste dei clienti in un’ampia gamma di settori e applicazioni, e di riconoscere quando è necessario l’intervento umano.

 


ATTENZIONE: HARVARD BUSINESS REVIEW ITALIA E SALESFORCE ORGANIZZANO SU QUESTI TEMI UN WORKSHOP CHE SI TERRÀ IL PROSSIMO 18 GIUGNO A MILANO. PER IL PROGRAMMA E LE ISCRIZIONI CLICCA QUI: https://agentforceforhrservice.splashthat.com/ 

 


Forse, però, il futuro più entusiasmante per l’IA agentica arriverà sotto forma di agenti personali, in grado di intraprendere azioni autonome per conto dell’utente. Questi fungeranno da assistenti personali, gestendo il calendario, effettuando ricerche e analisi mirate, trovando, negoziando e acquistando beni e servizi, curando i contenuti e occupandosi delle comunicazioni di base, imparando e ottimizzandosi lungo il percorso.

L’idea degli agenti di IA personali risale a decenni fa, ma la tecnologia sembra finalmente pronta per il grande pubblico. Già ora, aziende leader offrono prototipi di agenti IA personali ai propri clienti, fornitori e altri stakeholder, sollevando questioni commerciali e tecniche impegnative. In particolare: ci si può fidare degli agenti IA affinché agiscano nel nostro interesse? Lavoreranno esclusivamente per noi o la loro lealtà sarà divisa tra utenti, sviluppatori, inserzionisti e fornitori di servizi? E come lo sapremo?

Le risposte a queste domande determineranno se e con quale rapidità gli utenti adotteranno gli agenti IA personali, e se la loro diffusione su larga scala migliorerà o danneggerà le relazioni commerciali e il valore del marchio.

 

Cosa potrebbe andare storto?

Pensate a un agente IA personale come a qualcuno che potreste assumere come dipendente, appaltatore o altro agente nel mondo reale. Prima di delegare delle responsabilità, dovete sapere se una persona o un’azienda è affidabile, onesta, capace e tenuta per legge a tutelare i vostri interessi. Per un agente umano con la capacità di impegnare le vostre risorse finanziarie e di altro tipo, ad esempio, quasi certamente condurreste un controllo dei precedenti, stipulereste un’assicurazione e, in alcuni casi, gli chiedereste di versare una cauzione.

A seconda dei compiti dei vostri agenti IA personali, saranno essenziali versioni digitali di quelli sopraelencati e altri controlli. Questo perché i rischi legati a dipendenti e appaltatori inadeguati si applicano anche agli agenti IA personali. Infatti, data la portata e la velocità potenziali dell’IA agentica, gli utenti dovranno essere ancora più sicuri dell’affidabilità dei loro agenti IA personali prima di affidare loro le chiavi dei beni più preziosi. I rischi più gravi che devono essere affrontati includono:

 

Vulnerabilità ai criminali

Lo scenario peggiore è che gli agenti IA personali possano essere programmati (o riprogrammati da hacker) per lavorare contro di voi, analogamente a un ladro di identità o a un dipendente criminale che sottrae fondi.

È troppo presto per segnalare casi diffusi di agenti IA personali sabotati, ma l’Istituto Nazionale di Standard e Tecnologia degli Stati Uniti e aziende private di sicurezza Internet stanno conducendo test regolari sui principali LLM e sulla loro tecnologia di agenti per individuare potenziali falle di sicurezza. Questi attacchi hacker simulati rivelano che anche i modelli più sicuri attualmente disponibili possono essere facilmente ingannati e indotti a compiere attività dannose, tra cui l’esposizione di password, l’invio di e-mail di phishing e la divulgazione di software proprietario.

 

Manipolazione della vendita al dettaglio da parte di operatori di marketing e influencer a pagamento

Nel settore della vendita al dettaglio, gli agenti IA personali potrebbero essere progettati intenzionalmente con preferenze di marketing distorte per indirizzare gli acquisti verso chi li ha sviluppati o verso i loro partner commerciali.

Si pensi allo shopping online. Già oggi è invaso da pubblicità ingannevole e promozioni a pagamento, molte delle quali non vengono divulgate. I consumer marketer hanno forti incentivi a impedire agli agenti IA di fare acquisti in un ambiente veramente indipendente. Gli agenti “liberi” potrebbero indirizzare gli acquisti verso determinati marchi o rivenditori; peggio ancora, i pregiudizi programmati nelle raccomandazioni e negli acquisti potrebbero essere invisibili agli utenti.

Proprio come gli esseri umani possono essere indotti con l’inganno ad acquistare e vendere da chi manipola le informazioni in modo sleale o addirittura illegale, gli agenti IA potrebbero cadere vittime di abusi simili attraverso software implementati dai marketer per influenzare o addirittura alterare gli LLM su cui si basano gli agenti IA personali. Voi credete che il vostro agente stia trovando l’offerta migliore, ma la sua analisi, il suo processo decisionale e il suo apprendimento potrebbero essere alterati in modo sottile o meno da modifiche agli input e al ragionamento che utilizza.

 

Preferenza per sponsor e inserzionisti

La manipolazione può anche includere una preferenza speciale per determinati tipi di contenuti o punti di vista. Ad esempio, nelle notizie, nell’intrattenimento e nei social media, gli agenti IA personali potrebbero essere orientati a dare priorità ai contenuti digitali o a promuovere lo sponsor di un fornitore di servizi invece di fornire agli utenti le informazioni che meglio soddisfano le loro esigenze o preferenze.

Ciò è particolarmente probabile se l’implementazione degli agenti IA personali segue l’approccio dei servizi digitali esistenti, in cui agli utenti viene offerto un accesso gratuito o sovvenzionato ai contenuti, lasciando agli operatori della piattaforma il compito di guadagnare dalla pubblicità, dal product placement e da altre fonti indirette legate ai contenuti. Come ai vecchi tempi della radio e della televisione finanziate dalla pubblicità, questo modello di business allinea fortemente gli interessi dei fornitori di servizi non a quelli dei loro utenti, ma a quelli degli sponsor, determinando un’influenza diretta e indiretta sui contenuti affinché riflettano al meglio gli interessi degli inserzionisti e dei loro marchi.

Si pensi al servizio musicale Spotify, che ha recentemente aggiunto una funzione che consente agli abbonati di ascoltare musica curata da un DJ automatizzato, “una guida IA personalizzata che conosce così bene te e i tuoi gusti musicali da poter scegliere cosa riprodurre”. Spotify consente inoltre agli artisti di promuovere il proprio lavoro in alcuni algoritmi di raccomandazione degli utenti in cambio di una riduzione dei diritti d’autore, un sistema che definisce “Discovery Mode”. Per ora, Spotify ha confermato che il suo DJ IA non opera in combinazione con la Discovery Mode.

 

Suscettibilità alla disinformazione

Il processo decisionale degli agenti IA personali potrebbe essere influenzato intenzionalmente o involontariamente dalla disinformazione, un problema che già oggi affligge sia i responsabili umani che gli agenti. Questo è forse il rischio più generale, ma anche il più significativo. Gli agenti IA personali, ad esempio, possono essere ingannati, proprio come gli esseri umani, da video falsi, che in alcuni casi vengono utilizzati per ricattare o estorcere denaro alle vittime.

Esempi di LLM che si basano su informazioni errate o intenzionalmente false in risposta alle domande degli utenti, in alcuni casi fornendo consigli pericolosi per la salute, sono stati segnalati regolarmente sin dal primo rilascio di ChatGPT e di altre prime applicazioni di IA. Alcuni tribunali hanno già ritenuto responsabili gli sviluppatori quando i chatbot IA forniscono risposte o consigli errati: ad esempio, il caso di un passeggero di Air Canada a cui era stato promesso uno sconto che in realtà non era disponibile.

Poiché i fornitori di informazioni false hanno obiettivi diversi, tra cui politici, criminali, finanziari o semplicemente maliziosi, è difficile valutare il rischio che gli agenti IA personali si affidino inavvertitamente a tali dati nel prendere decisioni importanti per i propri utenti.

 

Unire soluzioni legali, di mercato e tecniche

Un modo per garantire l’onestà degli agenti IA, proprio come i loro omologhi umani, è un’attenta supervisione, un controllo e una limitazione dell’autonomia attraverso la definizione di livelli di approvazione basati sulla portata potenziale e sul costo delle decisioni delegate. Tuttavia, l’implementazione di una supervisione così complessa sugli agenti IA vanificherebbe in gran parte i vantaggi in termini di risparmio di tempo derivanti dall’autorizzazione ad agire per nostro conto.

Riteniamo invece che la necessità di un micromanagement tedioso degli agenti IA da parte dei loro utenti possa essere ridotto al minimo applicando una combinazione di regolamentazione pubblica e privata, assicurazioni e hardware e software specializzati. Ecco tre passaggi chiave per garantire agenti IA personali affidabili, alcuni dei quali sono già in fase di sviluppo:

 

1. Trattare gli agenti IA come fiduciari

Avvocati, tutori legali, amministratori fiduciari, consulenti finanziari, membri di consigli di amministrazione e altri agenti che gestiscono i beni o il denaro dei loro clienti sono soggetti a un elevato livello di responsabilità, che li rende dei fiduciari. A seconda del contesto, le responsabilità legali di un fiduciario nei confronti del cliente includono tipicamente l’obbedienza, la lealtà, la trasparenza, la riservatezza, la responsabilità e la ragionevole cura e diligenza nella gestione degli affari del cliente.

Come base di riferimento, i sistemi giuridici devono garantire che gli agenti IA e qualsiasi altro software in grado di prendere decisioni consequenziali siano trattati come fiduciari, con adeguati meccanismi di controllo pubblici e privati in caso di violazioni, tra cui la mancata divulgazione di potenziali conflitti di interesse o la mancata operatività in modo indipendente da influencer retribuiti. Già alcuni studiosi di diritto sostengono che i precedenti esistenti tratterebbero gli agenti IA personali come fiduciari. In caso contrario, questo potrebbe essere uno dei rari ambiti di consenso bipartisan sulla necessità di una regolamentazione, con gli stessi principali sviluppatori di tecnologia di IA agentica che chiedono una legislazione.

Negli Stati Uniti, alcuni fiduciari sono strettamente regolamentati da agenzie pubbliche, tra cui la Securities and Exchange Commission e il Department of Labor, che supervisionano i processi di licenza, rendicontazione e di disciplina. Anche organismi privati di autoregolamentazione, come gli ordini degli avvocati, il Certified Financial Planner Board e la National Association of Realtors, possono agire direttamente o indirettamente per far rispettare i doveri fiduciari. Meccanismi simili, forse supervisionati da una nuova organizzazione creata dagli sviluppatori di IA e dagli utenti aziendali, dovranno monitorare gli agenti IA personali.

 

2. Favorire l’indipendenza degli agenti IA tramite meccanismi di regolazione di mercato

I leader aziendali che trarranno vantaggio dall’offerta di agenti IA personali ai propri stakeholder dovrebbero collaborare con i fornitori di servizi, le autorità di regolamentazione private e gli imprenditori per promuovere la fiducia e la sicurezza della tecnologia IA agentica. Ciò include l’offerta e l’inclusione di assicurazioni nell’implementazione di agenti IA personali.

Ad esempio, con l’esplosione dell’uso delle applicazioni bancarie e di vendita al dettaglio, si è rapidamente sviluppato un settore in rapida crescita e multimiliardario di protezione dall’identità per proteggere gli utenti dall’uso non autorizzato delle informazioni digitali da parte dei fiduciari finanziari. Gli assicuratori, in particolare, hanno forti incentivi a controllare le pratiche dei gestori di dati e a fare pressione per leggi più severe o per l’adozione di strumenti di applicazione privati, comprese le class action, quando opportuno.

Altri fornitori di servizi che già aiutano gli utenti a gestire i loro rapporti online con i fiduciari potrebbero espandere la loro attività per coprire gli agenti IA personali. Le agenzie di credito, ad esempio, non solo supervisionano un’ampia gamma di transazioni e forniscono avvisi basati su criteri definiti dall’utente, ma offrono anche ai consumatori la possibilità di congelare la propria storia finanziaria in modo che criminali e altri utenti non autorizzati non possano aprire nuove linee di credito o gestire la storia creditizia senza un’autorizzazione esplicita. (Dal 2018, alcuni di questi strumenti devono essere offerti gratuitamente ai consumatori negli Stati Uniti).

Allo stesso modo, chi implementa agenti IA personali dovrebbe incoraggiare gli assicuratori e altri fornitori di servizi a offrire agli utenti la possibilità di monitorare, controllare e verificare il comportamento dei propri agenti, indipendentemente da chi crea e gestisce il software stesso. Le “agenzie di credito” di IA potrebbero offrire strumenti per limitare l’autonomia degli agenti IA a livelli definiti dall’utente, compreso il numero o la portata delle decisioni consequenziali che l’agente può prendere durante un determinato periodo di tempo.

 

3. Mantenere le decisioni a livello locale

Una progettazione e un’implementazione accurate della tecnologia di IA agentica possono prevenire molte questioni relative alla fiducia prima che si presentino. Un modo efficace per scoraggiare la manipolazione commerciale o criminale degli agenti IA personali è limitare la loro capacità di divulgare dati personali. Diversi sviluppatori di dispositivi e sistemi operativi, tra cui Google e Microsoft, stanno lavorando a strumenti di IA agentica che mantengono tutti i dati sensibili e le decisioni prese dagli agenti localizzati sul telefono, tablet o personal computer dell’utente. Ciò limita sia la possibilità che estranei interferiscano con l’agente, sia il rischio che dati sensibili possano essere dirottati e utilizzati da software dannosi che si fingono agenti autorizzati.

Apple Intelligence, l’architettura di IA di Apple, limiterà analogamente la maggior parte delle attività degli agenti al dispositivo dell’utente. Quando sarà necessaria una maggiore potenza di calcolo, l’azienda utilizzerà il cosiddetto Private Cloud Compute (PCC), che può accedere a LLM più grandi e a risorse di elaborazione utilizzando hardware Apple e una crittografia avanzata. Secondo l’azienda, quando si utilizza il PCC, i dati personali non vengono memorizzati. L’azienda si è inoltre impegnata a consentire a ricercatori indipendenti specializzati in privacy e sicurezza di verificare l’integrità del sistema in qualsiasi momento.

Per garantire una rapida diffusione degli agenti IA personali, tutte le aziende che offrono tali agenti ai propri stakeholder dovrebbero prendere in considerazione caratteristiche simili, tra cui la localizzazione rigorosa dei dati dei singoli utenti, una crittografia avanzata sia per l’elaborazione interna che esterna e partner commerciali affidabili. Sono inoltre essenziali la trasparenza verificabile del comportamento dell’agente e la divulgazione completa delle sponsorizzazioni, delle promozioni a pagamento e delle interazioni pubblicitarie con gli agenti IA personali.

Soluzioni tecniche come queste non sono ovviamente infallibili, ma limitano notevolmente il numero di potenziali punti di fallimento, riducendo il rischio che le responsabilità fiduciarie non vengano adempiute.

 

Per iniziare

La tecnologia di IA agentica è estremamente promettente per rendere la vita più facile e migliore, non solo per le imprese ma anche per gli individui. Tuttavia, gli utenti non accetteranno gli agenti IA a meno che non siano certi che la tecnologia sia affidabile, che vi sia un controllo pubblico e privato sul comportamento degli agenti e che esistano strumenti di monitoraggio, segnalazione e personalizzazione adeguati e indipendenti dagli sviluppatori degli agenti stessi.

Come in qualsiasi rapporto fiduciario, per ottenere risultati positivi sarà necessario assegnare chiaramente i diritti e le responsabilità legali, supportati da un mercato solido per le assicurazioni e altre forme di protezione da parte di terzi e strumenti di applicazione. I gruppi industriali, gli sviluppatori di tecnologia, le aziende di servizi ai consumatori, gli imprenditori, gli utenti, i difensori dei consumatori e i legislatori devono unirsi adesso per accelerare l’adozione di questa tecnologia fondamentale.

 

Blair Levin ha guidato il team che ha prodotto il Piano nazionale per la banda larga 2010 della FCC. Successivamente ha fondato Gig.U, che ha incoraggiato la diffusione di Internet a velocità gigabit nelle città con importanti università di ricerca. Attualmente è Senior Fellow non residente presso la Brookings Institution e consulente politico presso New Street Research. Larry Downes è coautore di Pivot to the Future: Discovering Value and Creating Growth in a Disrupted World (PublicAffairs 2019). Tra i suoi libri precedenti figurano Big Bang Disruption, The Laws of Disruption e Unleashing the Killer App.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400