TECNOLOGIA

L’intelligenza artificiale generativa ha già raggiunto il picco?

Oguz A. Acar

Novembre 2023

L’intelligenza artificiale generativa ha già raggiunto il picco?

PhonlamaiPhoto/Getty Images

L’IA GENERATIVA POTREBBE ESSERE IN DECLINO. Potrebbe sembrare inverosimile, persino assurdo, vista la rapida adozione di strumenti di IA generativa, con ChatGPT che ha superato persino TikTok e WhatsApp. Dopotutto, tutti quanti – dagli investitori alle big tech, fino ai principali operatori pubblicitari e agli editori – sembrano essere alla ricerca di una base per operare nell’era guidata dall’intelligenza artificiale.

Ma se questa esplosione di popolarità segnasse l’inizio di una caduta?

L’ascesa dell’IA generativa rischia di inondare Internet di contenuti sintetici. In realtà, questo sta già accadendo. Alla data di pubblicazione di questo articolo, Newsguard, ad esempio, ha identificato 537 siti di notizie e informazioni generati dall’IA. Si consideri anche il curioso caso di un libro sugli incendi di Maui, pubblicato su Amazon con data di pubblicazione 10 agosto, che sostiene di raccontare gli eventi dall’8 all’11 agosto attingendo a varie fonti, tra cui ricerche scientifiche, testimonianze oculari e rapporti ufficiali. Uno studio recente stima addirittura che fino al 46% dei lavoratori remoti su Amazon Mechanical Turk potrebbe utilizzare modelli linguistici di grandi dimensioni (LLM) per la produzione di testi.

Questo ci porta a una prospettiva inquietante ma del tutto concepibile: i futuri modelli di intelligenza artificiale potrebbero addestrarsi prevalentemente sui propri risultati. Un modello del genere potrebbe davvero catturare le sfumature dei pensieri e dei comportamenti umani? Sembra inevitabile che questo ciclo di “consanguineità” porti a una sorta di “echo chamber” dell’IA.

Non si tratta solo di speculazioni. Uno studio recente ha dimostrato che l’addestramento di modelli basati sui dati di altri modelli generativi di IA porta a un processo irreversibile e degenerativo. Il modello finale inizia a sovrastimare gli eventi probabili e a sottostimare quelli improbabili, perdendo infine il contatto con la distribuzione reale dei dati. È importante notare che questo fenomeno, definito “collasso del modello”, si osserva in diversi tipi di modelli, dagli LLM ai generatori di immagini, e che bastano poche generazioni perché i risultati diventino inutili.

Un altro studio ha documentato un modello simile, che è stato chiamato Model Autophagy Disorder (MAD). Dimostra che l’addestramento ricorsivo dei modelli generativi sul loro stesso contenuto porta a cicli di autoconsumo che degradano la qualità e la diversità del modello. In parole povere, i modelli generativi vanno in “MAD” se non vengono regolarmente infusi con dati umani freschi e reali. La conclusione è chiara: i futuri modelli generativi di IA potrebbero regredire se i contenuti generati dall’IA continuano a proliferare su Internet.

 

Il dilemma dell’organizzazione

Ma il problema va oltre la cerchia immediata degli sviluppatori di LLM o delle organizzazioni che integrano LLM nelle loro attività. Le conseguenze sono più ampie e si ripercuotono sull’intero ecosistema digitale. Si pensi alle piattaforme di social media, ai siti di e-commerce e ai portali educativi che si basano su contenuti autentici. La minaccia incombente di una crisi di autenticità potrebbe mettere seriamente a rischio la loro proposta di valore, soprattutto se si considera che il sentimento dei consumatori è contrario ai contenuti generati da algoritmi. In effetti, l’essenza di Internet è data da interazione umana e contenuti: il dominio dei contenuti generati dall’intelligenza artificiale rischia di minare il tessuto stesso che conferisce a Internet il suo valore.

Nel complesso, appare chiaro che ci stiamo muovendo verso un nuovo paesaggio digitale in cui i contenuti umani autentici sono una merce sempre più rara. E, come tutti sappiamo tramite una lezione base di economia, il loro valore dovrebbe quindi aumentare. Ciò richiede un ripensamento degli incentivi e degli aspetti economici che circondano i contenuti generati dall’uomo.

 

Un nuovo modello economico e tecnologico per la creatività umana

L’attuale modus operandi degli sviluppatori di LLM – raccogliere dati, addestrare modelli, capitalizzare – ha finora funzionato bene. Tuttavia, un crescente malcontento tra le piattaforme di contenuti suggerisce che questo rapporto unilaterale non è sostenibile. Si pensi alla recente decisione di Reddit di far pagare a terzi l’accesso alle API, una mossa in gran parte dettata dalla preoccupazione che gli strumenti di IA generativa stessero raccogliendo benefici senza compensare l’azienda. Come spiega l’amministratore delegato Steve Huffmann: “Operare su Reddit, generare valore e non restituire nulla di quel valore ai nostri utenti è qualcosa che ci crea problemi”. Allo stesso modo, Getty Images ha intrapreso un’azione legale contro Stability AI – sviluppatore del popolare strumento di intelligenza artificiale da testo a immagine Stable Diffusion – per aver estratto milioni di immagini dal suo database senza autorizzazione o compenso.

Alcuni dei principali sviluppatori di LLM, come OpenAI e Google, stanno riconoscendo questo cambiamento e stanno cercando di adattarsi esplorando accordi di licenza con gli editori. OpenAI, ad esempio, ha già siglato accordi di partnership con Associated Press per le notizie e Shutterstock per le immagini. OpenAI ha inoltre recentemente introdotto una funzione che consente agli sviluppatori di escludere i propri dati dallo scraping.

Sebbene questi siano passi nella giusta direzione, non affrontano il problema di fondo: come possiamo creare un ecosistema in cui gli esseri umani siano incoraggiati a continuare a creare e condividere contenuti autentici? Per raggiungere questo obiettivo, dovremmo basare il nostro approccio e concentrare i nostri sforzi su tre pilastri: un’equa retribuzione per la creatività umana, un maggiore potere sui risultati creativi attraverso la trasparenza e innovazioni tecnologiche che delimitino chiaramente il creato dall’uomo dal generato dalla macchina.

 

1. Equo compenso per la creatività

Un buon punto di partenza è l’esplorazione di sistemi economici e tecnologici in cui i creatori – non solo le grandi piattaforme digitali – siano equamente compensati per i contenuti umani autentici. Le piattaforme di contenuti hanno iniziato a considerare come apprezzare parte del valore generato dai LLM, ad esempio concedendo licenze per i loro contenuti.

Ma questo dovrebbe essere distribuito anche agli effettivi creatori di contenuti, per incentivarli a impegnarsi nella creazione di contenuti autentici. Un esempio è il Contributor Fund di Shutterstock, che offre ai creatori un compenso quando la loro immagine viene utilizzata per l’addestramento di modelli generativi di intelligenza artificiale.

Ci sono altre potenziali strade che gli sviluppatori di LLM e le piattaforme di contenuti potrebbero esplorare. Ad esempio, la blockchain potrebbe fornire l’infrastruttura tecnologica per stabilire contratti intelligenti per i contenuti digitali. Prendiamo Kara, un sistema basato su blockchain che compensa i pazienti per l’uso delle loro cartelle cliniche nell’addestramento di modelli di apprendimento automatico. Questo sistema ha utilizzato i dati Shapley come parametro chiave per la valutazione dei dati; in parole povere, ha valutato i dati in base al loro contributo alle prestazioni complessive del modello. In futuro, potremmo assistere a mercati di dati in cui i contenuti umani vengono valutati dinamicamente in base all’autenticità, alla rarità o alla specificità, nonché a un aumento delle iniziative di crowdsourcing mirate che offrono compensi per esigenze specifiche di contenuti.

 

2. Azioni e trasparenza

Sebbene gli incentivi finanziari siano importanti, essi non colgono l’intero spettro della motivazione umana. La mia ricerca sul crowdsourcing dell’innovazione ha identificato una serie di fattori motivazionali dei creatori che vanno oltre il denaro. Tra questi, la motivazione intrinseca, in cui gli individui sono spinti dalla pura gioia di creare, e la motivazione prosociale, in cui l’obiettivo è quello di avere un impatto positivo sugli altri. Altri studi sostengono l’idea che un senso di autonomia e di competenza sia alla base della motivazione intrinseca e della creatività.

Nel complesso, le ricerche sulla motivazione e sulla creatività indicano l’importanza di dare ai creatori informazioni e potere sulle loro creazioni. Ad esempio, i creatori dovrebbero essere in grado di sapere quali modelli di IA utilizzano i loro contenuti, quali sono i principi che li governano e quali misure specifiche vengono adottate per aderire a tali principi. Prendiamo ad esempio Anthropic Claude. A differenza di altri importanti sviluppatori di LLM, ha una costituzione condivisa pubblicamente per la sua formazione, attingendo a fonti come la Dichiarazione universale dei diritti umani. Così come oggi si può scegliere un caffè di provenienza etica o una moda sostenibile, si dovrebbe poter scegliere di fornire contenuti esclusivamente a IA etiche.

 

3. Risolvere il problema della provenienza

Una sfida tecnologica è la nostra capacità di distinguere i contenuti umani da quelli sintetici. Il problema della provenienza si sta rivelando estremamente difficile. Gli studi dimostrano che semplici soluzioni, come la parafrasi leggera o il prompting intelligente, eludono i metodi di rilevamento allo stato dell’arte, come il soft watermarking, lo zero-shot, i rilevatori basati sul recupero e le reti neurali. Si suggerisce inoltre che, man mano che i modelli linguistici migliorano nell’imitare l’output umano, l’efficacia di questi rilevatori diminuisce ulteriormente. In effetti, persino OpenAI ha dovuto accantonare i propri sforzi per rilevare i contenuti prodotti dall’IA a causa della loro inaffidabilità.

L’evidente complessità di questa sfida richiede un approccio collettivo. In altre parole, gli sviluppatori di LLM, le aziende incentrate sui contenuti, il mondo accademico e le agenzie governative, che hanno tutti un interesse personale, dovrebbero coordinare gli sforzi per affrontarla. La velocità senza precedenti con cui sono stati sviluppati i vaccini Covid-19 è la prova di ciò che l’innovazione collettiva può raggiungere di fronte a sfide apparentemente insormontabili.

 

Il futuro dell’intelligenza artificiale generativa

Se siete responsabili di un’azienda che sta sviluppando strumenti di IA generativa o che fa molto affidamento sui contenuti, la vostra competitività futura potrebbe dipendere dalla possibilità di sfruttare l’autentica creatività umana. È tempo di esplorare le modalità di condivisione del valore economico generato dall’IA, di sfruttare le motivazioni intrinseche dei creatori di contenuti e di stabilire metodi credibili per la verifica dei contenuti. Non si tratta solo di una questione di responsabilità aziendale, ma di un imperativo strategico per il successo a lungo termine.

Più in generale, l’entusiasmo intorno all’IA generativa è palpabile, e per una buona ragione. Ma molte decisioni sulla sua adozione sembrano essere prese con la presunzione di una crescita esponenziale e inarrestabile. Ciò che manca nella conversazione è un cruciale controllo della realtà: c’è all’orizzonte un potenziale plateau o addirittura una flessione per l’IA generativa? I manager dovrebbero resistere alla tentazione di saltare sul carro dei vincitori, ma devono valutare attentamente dove questa tecnologia potrebbe portare, sia in meglio che in peggio. Mentre navighiamo in questo territorio intrigante e incerto, è più importante che mai sostenere una mentalità aperta ma critica, impegnarsi in una sperimentazione continua ed essere pronti a ricalibrare le nostre opinioni alla luce dell’evoluzione delle conoscenze.

Tutto sommato, il vero collo di bottiglia dell’IA generativa potrebbe non essere la capacità di calcolo o i parametri del modello, ma il nostro tocco umano unico. Eppure, siamo sull’orlo di un mondo digitale sempre più pieno di confusione generata dall’IA. È possibile che abbiamo già visto l’apice dell’IA generativa? Il modo in cui si svilupperà il prossimo capitolo dipende dalla nostra capacità di riconoscere, proteggere, coltivare e trattare equamente la creatività umana.

 

Oguz A. Acar è titolare della cattedra di Marketing presso la King’s Business School, King’s College di Londra.

Commenta scrivi/Scopri i commenti

Condividi le tue opinioni su Hbr Italia

Caratteri rimanenti: 400

Leggi Hbr Italia
anche su tablet e computer

Newsletter

Lasciaci la tua mail per essere sempre aggiornato sulle novità di HBR Italia