INTELLIGENZA ARTIFICIALE

È l’integrità artificiale la prossima frontiera dell’IA?

Questo articolo è parte della serie di riflessioni innescate dall’articolo di Enrico Sassoon sull’IA senziente e proseguite con gli interventi di Cosimo Accoto e di Rosario Sica.

Intervista di Karen Christensen a Hamilton Mann

Aprile 2025

È l’integrità artificiale la prossima frontiera dell’IA?

Qual è a suo parere la prossima frontiera dell’intelligenza artificiale?

L’espressione “IA di frontiera” è spesso utilizzata per riferirsi a modelli di IA altamente performanti che sono all’avanguardia nel progresso tecnologico e in grado di svolgere un’ampia gamma di compiti. I modelli di frontiera stanno gettando le basi per quella che potrebbe essere vicina a un’intelligenza artificiale generale, un obiettivo ambizioso perseguito da una scuola di pensiero nel campo dell’IA. Tuttavia, quando parlo della prossima frontiera dell’IA, sposto l’attenzione dai progressi guidati dall’intelligenza al progresso guidato dall’integrità. L’“integrità artificiale” rappresenta questa nuova direzione. La mia proposta è che la prossima evoluzione significativa dell’IA sia costituita dalla sua capacità di operare con un’integrità intrinseca. Ciò implica la progettazione di sistemi di IA con un quadro intrinseco che garantisca un comportamento responsabile e guidato dall’integrità in modo coerente. Questo include l’integrazione di principi che consentano all’IA di ragionare e agire con valori allineati all’equità, all’inclusività e agli standard etici. Mentre gli attuali modelli di IA all’avanguardia si concentrano sull’espansione delle capacità tecniche e dell’utilità, spesso lo fanno a scapito della responsabilità, dell’affidabilità e, peggio ancora, di considerazioni umane. L’integrità artificiale apre la strada a un’IA che possa essere rispettata e su cui si possa fare affidamento, gettando le basi per un futuro in cui le sue capacità siano veramente allineate agli standard umani, ai bisogni e agli obblighi verso gli altri esseri viventi.

 

Come appare e come funziona un’IA quando è sia intelligente sia allineata all’integrità?

Perché i sistemi di IA siano in grado di garantire l’integrità artificiale, le considerazioni etiche devono essere integrate in modo fondamentale nel loro ragionamento. Vediamo alcuni esempi.

Un caso di un’applicazione concreta è quello di assunzione e reclutamento. Se sono puramente basati sui dati, senza considerare l’equità e l’inclusività, gli strumenti di assunzione basati sull’IA rischiano di replicare i pregiudizi. I sistemi di integrità artificiale affronterebbero in modo proattivo i potenziali pregiudizi e valuterebbero l’equità dei risultati, formulando raccomandazioni di assunzione eque e inclusive che rispettino la diversità e il valore delle pari opportunità. In termini di raccomandazioni sui prodotti e protezione dei consumatori, i sistemi di IA per l’e-commerce spesso promuovono prodotti in base ai margini di profitto o ai profili degli utenti, promuovendo potenzialmente articoli inutili o dannosi per i clienti vulnerabili. I sistemi di integrità artificiale valuterebbero l’idoneità e l’eticità dei prodotti raccomandati, evitando la manipolazione e tenendo invece conto del benessere dei consumatori, in particolare per le fasce demografiche vulnerabili. Per l’approvvigionamento etico e la sostenibilità della catena di fornitura, i sistemi di IA possono ottimizzare i costi, ma trascurare le questioni etiche relative all’approvvigionamento, alle pratiche di lavoro e all’impatto ambientale. I sistemi di integrità artificiale darebbero la priorità ai fornitori che soddisfano gli standard etici di lavoro e i criteri di sostenibilità ambientale, anche se non sono l’opzione più economica. Il fatto è che l’intelligenza da sola, senza un quadro morale di riferimento, può facilmente deviare dal percorso, rischiando conseguenze indesiderate.

 

Quali sono alcuni dei primi passi necessari per creare tali IA?

Un elemento essenziale nella costruzione di un tale modello di IA risiede nel processo di elaborazione dei dati. Al di là dell’etichettatura, che generalmente si riferisce al processo di identificazione e assegnazione di una categoria predefinita a un certo dato, è necessario adottare la pratica di annotare i set di dati in modo sistematico. Mentre l’etichettatura dei dati fornisce una forma di identificazione che consente al sistema di riconoscerli, l’annotazione consente di aggiungere informazioni più dettagliate ed estese. L’annotazione dei dati conferisce a essi una forma di significato astratto, in modo che il sistema possa in qualche modo contestualizzare le informazioni. L’obiettivo sarebbe quello di includere annotazioni che caratterizzino un “codice di integrità” che rifletta i valori, i giudizi integrali relativi a questi valori, i principi che li sottendono o i risultati da considerare inappropriati.

Ad esempio, in un set di dati utilizzato per addestrare un chatbot di assistenza clienti basato sull’IA, le annotazioni potrebbero includere valutazioni sull’integrità rispetto al modello di valori di riferimento, garantendo che le risposte del chatbot siano basate sulla cortesia, il rispetto e l’equità. I dati di addestramento potrebbero anche includere annotazioni sulle decisioni etiche in scenari critici o garantire che i dati siano utilizzati in modo etico, nel rispetto della privacy e del consenso. Un altro elemento essenziale per un modello di IA in grado di mostrare caratteristiche di integrità artificiale risiede nei metodi di addestramento. L’IA addestrata utilizzando “tecniche di apprendimento supervisionato” che consentono al modello di imparare non solo a svolgere un compito, ma anche a riconoscere i risultati guidati dall’integrità e preferiti è una strada promettente per lo sviluppo dell’integrità artificiale. È anche ipotizzabile aggiungere informazioni sul modello di valore utilizzato per addestrare un determinato modello di IA attraverso annotazioni dei dati e quindi utilizzare l’apprendimento supervisionato per aiutare l’IA a capire cosa è conforme e cosa non lo è al modello di valore. Ad esempio, per quanto riguarda i modelli di IA che si possono utilizzare per creare deepfake, la capacità di aiutare il sistema a capire che determinati usi indicano un deepfake e non corrispondono ai modelli di valore dimostrerebbe l’integrità artificiale.

 

Quali sono alcune delle sfide chiave che lo sviluppo di modelli di integrità artificiale deve affrontare?

Una delle principali difficoltà è la soggettività dei valori: culture, comunità e individui diversi possono avere prospettive diverse su ciò che costituisce un comportamento etico. Inoltre, la scalabilità rappresenta un’altra sfida. L’annotazione di grandi set di dati con codici di integrità dettagliati richiede risorse significative, sia in termini di tempo che di competenze umane, e potrebbe non essere sempre fattibile nella pratica. Questo processo può essere ulteriormente complicato dal rischio di introduzione di pregiudizi: gli stessi annotatori potrebbero involontariamente incorporare i propri pregiudizi nel sistema di IA, portando a risultati distorti o discriminatori. Per superare questi problemi, è fondamentale che i sistemi di IA siano progettati con meccanismi di apprendimento e adattamento continui. I modelli di IA dotati di integrità artificiale devono evolversi di pari passo con il cambiamento degli standard etici e dei valori sociali, il che può essere ottenuto attraverso continui cicli di feedback umano e aggiornamenti dinamici dei dati annotati. Ciò potrebbe consentire al sistema di ricalibrare le proprie decisioni al mutare dei contesti culturali o delle norme etiche che cambiano nel tempo.

 

Perché è così importante che lo sviluppo di un’IA con integrità comporti una collaborazione interdisciplinare?

È un requisito indispensabile, non un optional. L’integrità artificiale è irraggiungibile per gli sviluppatori di IA che lavorano in modo isolato. Etici, sociologi, politici, esperti di settore, diversi gruppi di utenti e altri soggetti devono essere coinvolti fin dall’inizio per garantire un approccio globale che rifletta una vasta gamma di prospettive. Nel complesso, si tratta di un argomento che richiede più ricercatori per costruire un’IA che difenda i valori umani piuttosto che perseguire le prestazioni fine a se stesse. Io sono uno di loro.

 

Molti sperano che l’IA possa aiutare nella lotta contro il cambiamento climatico. Ma anch’essa presenta un proprio impatto ambientale. Non è un paradosso?

Da un lato, l’IA ha un potenziale incredibile per aiutare a combattere il cambiamento climatico ottimizzando l’uso dell’energia, migliorando la modellizzazione del clima, potenziando le pratiche sostenibili e consentendo una gestione più intelligente delle risorse. Può, ad esempio, essere utilizzata per prevedere il consumo energetico, sviluppare sistemi di trasporto più efficienti e sostenere soluzioni innovative nel campo delle energie rinnovabili. Dall’altro lato, dobbiamo anche riconoscere che la tecnologia non è intrinsecamente sostenibile né immune da effetti sociali negativi. La potenza di calcolo necessaria per addestrare modelli di IA su larga scala può essere immensa, consumando enormi quantità di energia e generando emissioni di carbonio significative. La produzione e la manutenzione dell’infrastruttura fisica che supporta l’IA, come i data center, aumentano ulteriormente questo impatto ambientale, creando un “debito ambientale”.

La realtà è che non esiste tecnologia senza debito ambientale. Ogni elemento dell’infrastruttura digitale, dal più piccolo algoritmo al più potente sistema di IA, ha un’impronta ecologica. Questo debito deve essere riconosciuto, misurato e preso in considerazione nel nostro approccio allo sviluppo tecnologico sostenibile. La speranza non risiede solo nello sfruttamento dell’IA a vantaggio dell’ambiente, ma nel farlo in modo consapevole, integrando pratiche eco-compatibili nel ciclo di vita dei sistemi di IA, dalla progettazione e sviluppo alla distribuzione e al funzionamento. Il futuro dell’IA nella lotta contro il cambiamento climatico deve prevedere un duplice approccio: sfruttare le sue capacità per ottenere un impatto positivo, mitigando al contempo il suo impatto ambientale. Ciò significa dare priorità agli algoritmi efficienti dal punto di vista energetico, investire in data center alimentati da energie rinnovabili e integrare la sostenibilità come principio fondamentale nello sviluppo dell’IA.

 

Lei ha sviluppato un quadro di riferimento per la co-intelligenza umana/IA. Ce lo descrive?

Per affrontare le sfide legate al raggiungimento dell’integrità artificiale, consiglio alle organizzazioni di adottare un quadro strutturato attorno a tre pilastri: il Modello di Valore Sociale, il Modello di IA e il Modello di Co-Intelligenza Umana e IA. Ciascun pilastro rafforza gli altri e si concentra su diversi aspetti dell’integrità.

Il Modello di Valore Sociale si concentra sull’integrazione di standard e valori fondamentali basati sull’integrità nei sistemi di IA per garantire operazioni responsabili e sostenibili. Le organizzazioni sono tenute a definire chiari principi di integrità in linea con i diritti umani, i valori sociali e le normative pertinenti; integrare questi principi nella progettazione e nel processo decisionale dell’IA per rifletterli e rispettarli in tutte le operazioni del sistema; considerare gli impatti sociali più ampi come il consumo energetico per un’efficienza sostenibile; e attuare meccanismi di audit continuo e di responsabilità trasparente per monitorare regolarmente la conformità, l’integrità e la sostenibilità. Questo modello riguarda la costruzione della prospettiva “esterna” dei sistemi di IA.

Il modello di IA si concentra sull’integrazione di meccanismi integrati che danno priorità alla sicurezza, alla spiegabilità e alla trasparenza, garantendo la responsabilità del sistema e la protezione contro gli abusi. Gli elementi essenziali includono l’implementazione di una solida governance dei dati per mantenere la qualità di essi, ridurre i pregiudizi e promuovere l’equità; la progettazione di modelli spiegabili e interpretabili che migliorino la comprensione e la fiducia delle parti interessate;  l’integrazione di barriere di sicurezza autonome che rilevino e prevengano in tempo reale risultati dannosi o distorti; e la creazione di quadri di apprendimento adattivo che consentano aggiornamenti continui e riqualificazione per correggere le distorsioni e allinearsi alle mutevoli preoccupazioni in materia di integrità. Inoltre, il modello di IA dovrebbe essere radicato nelle qualità di integrità attraverso i suoi dati di addestramento e lo sviluppo di algoritmi, garantendo che gli standard e i principi etici siano integrati fin dall’inizio. Questo sviluppo dovrebbe consentire all’IA di rilevare modelli che violano gli standard morali ed etici, consentendo la prevenzione proattiva di comportamenti non etici e rafforzando il processo decisionale responsabile. Questo modello riguarda la costruzione della prospettiva “interna” dei sistemi di IA.

Il modello di co-intelligenza umana e IA, infine, sottolinea il rapporto collaborativo tra l’intelligenza umana e l’IA, che comprende varie modalità: modalità marginale (contributo limitato dell’IA, con l’intelligenza umana in primo piano); modalità AI-First (in cui l’IA ha la precedenza); Modalità Human-First (in cui l’intelligenza umana ha la precedenza); e Modalità Fusion (una sinergia equilibrata tra intelligenza umana e IA). Questo modello garantisce che la supervisione umana rimanga centrale in tutte le decisioni critiche, con l’IA che integra piuttosto che sostituire il giudizio umano, in particolare laddove l’etica e la responsabilità sono fondamentali. Rafforzato dal funzionamento coeso dei due modelli precedenti, il Modello di Co-Intelligenza Umana e IA riflette l’interrelazione e la connessione tra gli esseri umani e i sistemi di IA.

 

Il vostro Modello di Co-Intelligenza prende in considerazione quattro modalità operative distinte. Quali sono?

La prima è la Modalità Marginale. Nel contesto dell’integrità artificiale, si riferisce a situazioni in cui né l’input umano né il coinvolgimento dell’IA aggiungono un valore significativo. Si tratta di compiti o processi che sono diventati obsoleti, eccessivamente routinari o inefficienti al punto da non contribuire più in modo positivo agli obiettivi di un’organizzazione o della società. In questa modalità, la priorità non è quella di utilizzare l’IA per migliorare le capacità umane, ma di identificare le aree in cui il coinvolgimento sia dell’uomo che dell’IA è diventato inutile. Uno dei ruoli chiave dell’integrità artificiale nella modalità marginale è il rilevamento proattivo dei segnali che indicano quando un processo o un’attività non contribuisce più all’organizzazione. Ad esempio, se il carico di lavoro di un sistema di assistenza clienti diminuisce drasticamente a causa dell’automazione o del miglioramento delle opzioni di self-service, l’IA potrebbe riconoscere la diminuzione della necessità di coinvolgimento umano in quell’area, aiutando l’organizzazione ad agire per preparare la forza lavoro a un lavoro più orientato al valore.

Il secondo è la modalità AI-First. Qui, la forza dell’IA nell’elaborare grandi quantità di dati con velocità e precisione ha la precedenza sul contributo umano. L’integrità artificiale garantirebbe che anche in questi processi dominati dall’IA siano integrati standard basati sull’integrità come l’equità e il contesto culturale. In un mondo in cui prevale l’integrità artificiale, un sistema di IA che analizza i dati dei pazienti per identificare le tendenze sanitarie sarebbe in grado di spiegare come arriva alle sue conclusioni (ad esempio una raccomandazione per lo screening precoce del cancro), garantendo la trasparenza. Il sistema sarebbe inoltre progettato per evitare pregiudizi, ad esempio assicurando che il modello tenga conto delle diverse popolazioni, garantendo che le conclusioni tratte da un gruppo demografico prevalente non portino a consigli medici distorti o inaffidabili.

La terza modalità è la modalità “Human-First” (prima l’uomo). Questa modalità dà la priorità all’intelligenza cognitiva ed emotiva umana, con l’IA che svolge un ruolo di supporto per assistere il processo decisionale umano. L’integrità artificiale garantisce che i sistemi di IA siano progettati per integrare il giudizio umano senza prevalere su di esso, proteggendo gli esseri umani da qualsiasi forma di interferenza con il corretto funzionamento delle loro cognizioni, ad esempio evitando influenze che sfruttano le vulnerabilità del sistema di ricompensa del nostro cervello, che possono portare alla dipendenza. Ad esempio, in ambito legale, l’IA può assistere i giudici analizzando la giurisprudenza precedente, ma non dovrebbe sostituire il ragionamento morale ed etico del giudice. Il sistema di IA dovrebbe garantire la spiegabilità mostrando come è giunto alle sue conclusioni, nel rispetto al contesto culturale e ai valori che si applicano in modo diverso a seconda delle regioni o dei sistemi giuridici, garantendo che l’azione umana non sia compromessa per quanto riguarda le decisioni prese.

La quarta modalità è la modalità Fusion, che prevede una sinergia tra l’intelligenza umana e le capacità dell’IA, combinando il meglio dei due mondi. In un mondo in cui i veicoli autonomi operano in modalità Fusion, l’IA gestirebbe le operazioni del veicolo, come la velocità, la navigazione e l’evitamento degli ostacoli, mentre la supervisione umana, potenzialmente attraverso tecnologie emergenti come le interfacce cervello-computer (BCI), fornirebbe input in tempo reale su complessi dilemmi etici. Ad esempio, in situazioni di incidente inevitabile, una BCI potrebbe consentire la comunicazione diretta tra il cervello umano e l’IA, permettendo di prendere decisioni etiche in tempo reale, fondendo la precisione dell’IA con il ragionamento morale umano. Questi tipi di integrazioni avanzate richiederanno un’integrità artificiale al massimo livello di maturità, garantendo non solo l’eccellenza tecnica, ma anche la correttezza etica. Idealmente, i sistemi dovrebbero essere in grado di funzionare in ogni modalità, passando da una all’altra a seconda della situazione, delle esigenze e del contesto in cui operano. Questo è l’obiettivo finale dell’integrità artificiale.

 

Siamo preparati, a livello personale e professionale, ai cambiamenti che l’IA porterà nella società?

Sebbene siano stati compiuti molti passi avanti nell’adozione e nello sfruttamento dell’IA in tutti i settori, la realtà è che gran parte della società sta ancora cercando di stare al passo con il rapido ritmo del cambiamento tecnologico. Per affrontare efficacemente questo cambiamento, la preparazione deve diventare una responsabilità condivisa che coinvolge individui, comunità, organizzazioni e governi. A livello personale, prepararsi all’impatto dell’IA significa adottare una mentalità orientata all’adattabilità e all’apprendimento permanente. L’integrazione dell’IA nella nostra vita quotidiana e nel nostro lavoro ci sfida a migliorare le nostre competenze, sviluppare l’alfabetizzazione digitale e coltivare capacità di pensiero critico che ci consentano di lavorare a fianco dei sistemi intelligenti, senza essere sostituiti da essi. Questa preparazione non riguarda solo le competenze tecniche, ma anche l’integrazione dell’IA nella nostra vita quotidiana e nel nostro lavoro; ci sfida a migliorare le nostre competenze, sviluppare l’alfabetizzazione digitale e coltivare capacità di pensiero critico che ci consentano di lavorare a fianco dei sistemi intelligenti, senza essere sostituiti da essi. Questa preparazione non riguarda solo le competenze tecniche, ma anche la comprensione delle implicazioni etiche, sociali e psicologiche dell’IA e di come queste influenzano il nostro ruolo di individui nella società. Da un punto di vista professionale, le organizzazioni devono ripensare le loro strategie relative alla forza lavoro, dando priorità non solo all’adozione tecnologica, ma anche a politiche incentrate sull’uomo che tengano conto del benessere e dello sviluppo dei dipendenti. I dipendenti devono avere accesso a sistemi di formazione e supporto che consentano loro di utilizzare l’IA in modo responsabile ed efficace. Questa preparazione si estende all’adozione di un’etica dell’IA, garantendo che lo sviluppo dell’IA della vostra organizzazione sia in linea con valori quali l’equità, la trasparenza e la responsabilità. Prepararsi ai cambiamenti che l’IA porterà non è uno sforzo individuale, ma una responsabilità collettiva. Governi, imprese, educatori e tecnologi devono collaborare per costruire infrastrutture che supportino un accesso equo ai vantaggi dell’IA, mitigando al contempo rischi quali la sostituzione dei posti di lavoro, le preoccupazioni relative alla privacy e l’aggravarsi delle disuguaglianze. Se la società si assume la responsabilità di prepararsi all’impatto dell’IA, sia a livello personale che professionale, possiamo creare una base che supporti la resilienza e l’innovazione, garantendo che i vantaggi dell’IA siano diffusi ed equilibrati.

Hamilton Mann è vicepresidente di gruppo per il marketing digitale e la trasformazione digitale in Thales e autore di Artificial Integrity: The Paths to Leading AI to a Human-Centered Future (Wiley, 2024). È docente all’INSEAD, alla HEC Paris e alla EDHEC Business School. È mentore presso il MIT Priscilla King Gray (PKG) Center e conduce The Hamilton Mann Conversation (www.hamiltonmannconversation.com).

L’intervista di Karen Christensen è in via di pubblicazione sul Rotman Management Magazine della University of Toronto, che si ringrazia per la gentile concessione.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400