INTELLIGENZA ARTIFICIALE
Ege Gurdeniz, Kartik Hosanagar
Marzo 2023
Illustration by Adamastor
ChatGPT ha creato una frenesia. Dal rilascio del large language model (LLM) di OpenAI alla fine di novembre, si è scatenata una speculazione su come le IA generative - di cui ChatGPT è solo una delle tante - potrebbero cambiare tutto ciò che sappiamo della conoscenza, della ricerca e della creazione di contenuti, o rimodellare la forza lavoro e le competenze di cui i dipendenti hanno bisogno per prosperare, o addirittura stravolgere interi settori industriali!
Un'area si distingue per essere il primo premio della corsa all'IA generativa: la ricerca. L'IA generativa ha il potenziale per cambiare drasticamente ciò che gli utenti si aspettano dalla ricerca.
Google, il vincitore di lunga data della ricerca online, sembra avere improvvisamente uno sfidante in Microsoft, che ha recentemente investito 10 miliardi di dollari nello sviluppatore di ChatGPT, OpenAI, e ha annunciato l'intenzione di incorporare lo strumento in una serie di prodotti Microsoft, compreso il suo motore di ricerca, Bing. Nel frattempo, Google sta rilasciando il proprio strumento di intelligenza artificiale, Bard, e il gigante tecnologico cinese Baidu si sta preparando a lanciare un concorrente di ChatGPT. Anche le startup di IA generativa stanno investendo milioni di dollari.
Ma nonostante il clamore suscitato da ChatGPT - e dall'IA generativa in generale - ci sono importanti sfide pratiche, tecniche e legali da superare prima che questi strumenti possano raggiungere la scala, la solidità e l'affidabilità di un motore di ricerca affermato come Google.
Notizie di ieri
I motori di ricerca sono entrati nel mercato all'inizio degli anni '90, ma il loro approccio di base è rimasto invariato da allora: ordinare i siti web indicizzati nel modo più pertinente per l'utente. Nell'era della Ricerca 1.0 gli utenti dovevano inserire una parola chiave o una combinazione di parole chiave per interrogare il motore. La ricerca 2.0 è arrivata alla fine degli anni 2000 con l'introduzione della ricerca semantica, che ha permesso agli utenti di digitare frasi naturali come se stessero interagendo con un essere umano.
Google ha dominato la ricerca fin dal suo lancio grazie a tre fattori chiave: l'interfaccia utente semplice e ordinata, il rivoluzionario algoritmo PageRank, che forniva risultati pertinenti, e la capacità di Google di scalare senza soluzione di continuità con l'esplosione dei volumi. Google Search è stato lo strumento perfetto per rispondere a un caso d'uso ben definito: trovare siti web contenenti le informazioni che si stanno cercando.
Ma ora sembra esserci un nuovo caso d'uso in crescita. Come ha riconosciuto anche Google nel suo annuncio di Bard, gli utenti ora cercano qualcosa di più di un semplice elenco di siti web pertinenti a una query: vogliono "approfondimenti e comprensione".
Ed è proprio questo che fa la Ricerca 3.0: fornisce risposte invece di siti web. Mentre Google è stato il collega che ci indica un libro in una biblioteca che può rispondere alla nostra domanda, ChatGPT è il collega che ha già letto tutti i libri della biblioteca e può risponderci nel merito. In teoria, almeno.
Ma qui sta anche il primo problema di ChatGPT: nella sua forma attuale, ChatGPT non è un motore di ricerca, soprattutto perché non ha accesso alle informazioni in tempo reale come un motore di ricerca web-crawling. ChatGPT è stato addestrato su un enorme set di dati con un cut-off a ottobre 2021. Questo processo di addestramento ha dato a ChatGPT una quantità impressionante di conoscenze statiche, oltre alla capacità di comprendere e produrre linguaggio umano. Tuttavia, non "sa" nulla di più. Per ChatGPT, la Russia non ha invaso l'Ucraina, FTX è una borsa di criptovalute di successo, la Regina Elisabetta è viva e il Covid non ha raggiunto lo stadio Omicron. Questo è probabilmente il motivo per cui nel dicembre 2022 il CEO di OpenAI Sam Altman ha dichiarato: "È un errore fare affidamento su [ChatGPT] per qualsiasi cosa importante in questo momento".
La situazione cambierà nel prossimo futuro? Questo solleva il secondo grande problema: per ora, riqualificare continuamente un LLM man mano che le informazioni su Internet si evolvono è estremamente difficile.
La sfida più ovvia è l'enorme quantità di potenza di elaborazione necessaria per addestrare continuamente un LLM e il costo finanziario associato a queste risorse. Google copre il costo della ricerca con la vendita di annunci pubblicitari, consentendo di fornire il servizio gratuitamente. I costi energetici più elevati degli LLM rendono questa soluzione più difficile da realizzare, in particolare se l'obiettivo è quello di elaborare le query al ritmo di Google, che si stima sia dell'ordine delle decine di migliaia al secondo (o di qualche miliardo al giorno). Una potenziale soluzione potrebbe essere quella di addestrare il modello con minore frequenza e di evitare di applicarlo a query di ricerca che riguardano argomenti in rapida evoluzione.
Ma anche se le aziende riuscissero a superare questa sfida tecnica e finanziaria, rimarrebbe il problema delle informazioni effettive che forniranno: cosa impareranno esattamente strumenti come ChatGPT e da chi?
Considerare la fonte
Possiamo considerare i chatbot come ChatGPT alla stregua di specchi rivolti alla società: riflettono ciò che vedono. Se li si lascia liberi di essere addestrati su dati non filtrati provenienti da Internet, potrebbero sputare vetriolo. Ricordate, ad esempio, cos’è successo con Tay? Il chatbot, rilasciato da Microsoft su Twitter, è stato ritirato dopo 16 ore perché aveva iniziato a scrivere tweet offensivi e con linguaggio violento. Ecco perché gli LLM vengono addestrati su insiemi di dati accuratamente selezionati che lo sviluppatore ritiene appropriati.
Ma questo livello di selezione non garantisce che tutti i contenuti di queste enormi serie di dati online siano corretti e privi di pregiudizi. Infatti, uno studio condotto da Emily Bender, Timnit Gebru, Angelina McMillan-Major e Margaret Mitchell (accreditata come "Shmargaret Shmitchell") ha rilevato che "i grandi set di dati basati su testi provenienti da Internet sovra rappresentano i punti di vista egemonici e codificano pregiudizi potenzialmente dannosi per le popolazioni emarginate". Ad esempio, una fonte fondamentale per i dati di formazione di ChatGPT è Reddit, e gli autori citano uno studio di Pew Research che mostra che il 67% degli utenti di Reddit negli Stati Uniti sono uomini e il 64% ha un'età compresa tra i 18 e i 29 anni.
Queste disparità nell'impegno online attraverso fattori demografici come il genere, l'età, l’etnia, la nazionalità, lo status socioeconomico e l'appartenenza politica significano che l'IA rifletterà le opinioni del gruppo più dominante nei contenuti curati. ChatGPT è già stato accusato di essere "woke" e di avere un "pregiudizio liberal". Allo stesso tempo, il chatbot ha anche fornito raccomandazioni di racial profiling e un professore dell'UC Berkley ha fatto in modo che l'IA scrivesse del codice secondo cui solo gli uomini bianchi o asiatici sarebbero dei buoni scienziati. Da allora OpenAI ha messo dei paletti per evitare questi incidenti, ma il problema di fondo rimane.
I pregiudizi sono un problema anche per i motori di ricerca tradizionali, che possono condurre gli utenti a siti web che contengono contenuti di parte, razzisti, scorretti o comunque inappropriati. Ma poiché Google è semplicemente una guida che indirizza gli utenti verso le fonti, ha meno responsabilità per i loro contenuti. Quando gli vengono presentati i contenuti e le informazioni contestuali (ad esempio, i noti pregiudizi politici della fonte), gli utenti applicano il loro giudizio per distinguere i fatti dalla finzione, le opinioni dalla verità oggettiva, e decidono quali informazioni utilizzare. Con ChatGPT questo passaggio basato sul giudizio viene eliminato, il che lo rende direttamente responsabile dei risultati distorti e razzisti che può fornire.
Ciò solleva la questione della trasparenza: gli utenti non hanno idea di quali fonti siano alla base di una risposta con uno strumento come ChatGPT, e l'intelligenza artificiale non le fornirà quando le verrà chiesto. Questo crea una situazione pericolosa in cui una macchina parziale può essere considerata dall'utente come uno strumento oggettivo di cui si pensa che debba essere sostanzialmente corretto. OpenAI sta lavorando per risolvere questo problema con WebGPT, una versione dello strumento di intelligenza artificiale addestrata a citare le proprie fonti, ma la sua efficacia è ancora tutta da verificare.
L'opacità in materia di fonti può portare a un altro problema: studi accademici e testimonianze aneddotiche hanno dimostrato che le applicazioni di IA generativa possono plagiare i contenuti dei loro dati di addestramento - in altre parole, il lavoro di qualcun altro, che non ha acconsentito all'inclusione del proprio lavoro protetto da copyright nei dati di addestramento, non è stato compensato per l'uso del lavoro e non ha ricevuto alcun credito (Il New Yorker ha recentemente descritto questa situazione come le "tre C" (consent, compensation, credit) in un articolo che parla di una class action contro le aziende di IA generativa Midjourney, Stable Diffusion e Dream Up). Sono spuntate anche cause contro Microsoft, OpenAI, GitHub e altri, e questo sembra essere l'inizio di una nuova ondata di battaglie legali ed etiche.
Il plagio è un problema, ma ci sono anche casi in cui gli LLM si inventano le cose. In una gaffe resa pubblica, ad esempio, Bard di Google ha fornito informazioni del tutto errate sul telescopio James Webb durante una dimostrazione. Allo stesso modo, quando a ChatGPT è stato chiesto quale fosse l'articolo di ricerca più citato in economia, ha risposto con una citazione di ricerca completamente inventata.
A causa di questi problemi, ChatGPT e i LLM generici devono superare sfide importanti per essere utili in qualsiasi tentativo serio di trovare informazioni o produrre contenuti, in particolare nelle applicazioni accademiche e aziendali, dove anche il più piccolo passo falso potrebbe avere implicazioni catastrofiche per la carriera.
Andare in verticale
I LLM probabilmente miglioreranno alcuni aspetti dei motori di ricerca tradizionali, ma al momento non sembrano in grado di detronizzare la ricerca di Google. Tuttavia, potrebbero svolgere un ruolo più dirompente e rivoluzionario nel cambiare altri tipi di ricerca.
Ciò che è più probabile, nell'era della ricerca 3.0, è l'ascesa di LLM curati in modo mirato e trasparente e deliberatamente formati per la ricerca verticale, che sono motori di ricerca specializzati e specifici per ogni argomento.
La ricerca verticale è un caso d'uso importante per i LLM per alcuni motivi. In primo luogo, si concentra su campi e casi d'uso specifici - una conoscenza ristretta ma profonda. Ciò rende più facile addestrare gli LLM su insiemi di dati altamente curati, che potrebbero essere corredati da una documentazione completa che descrive le fonti e i dettagli tecnici del modello. Inoltre, è più facile che questi set di dati siano disciplinati da leggi, norme e regolamenti appropriati in materia di copyright, proprietà intellettuale e privacy. Modelli linguistici più piccoli e più mirati significano anche un costo computazionale inferiore, che ne facilita l'addestramento più frequente. Infine, questi LLM sarebbero soggetti a test e verifiche periodiche da parte di esperti terzi, in modo simile a come i modelli analitici utilizzati nelle istituzioni finanziarie regolamentate sono soggetti a rigorosi requisiti di verifica.
Nei campi in cui le conoscenze specialistiche radicate nei fatti e nei dati storici costituiscono una parte significativa del lavoro, i LLM verticali possono fornire una nuova generazione di strumenti di produttività che aumentano gli esseri umani in modi completamente nuovi. Immaginate una versione di ChatGPT addestrata su riviste mediche e libri di testo pubblicati e sottoposti a revisione paritaria e integrata in Microsoft Office come assistente di ricerca per i professionisti del settore medico. Oppure una versione addestrata su decenni di dati e articoli finanziari provenienti dai principali database e riviste di finanza che gli analisti bancari utilizzano per la ricerca. Un altro esempio è addestrare i LLM per scrivere o eseguire o togliere bug al codice e rispondere alle domande degli sviluppatori.
Le aziende e gli imprenditori possono porsi cinque domande per valutare se esiste un caso d'uso valido per l'applicazione dei LLM a un'applicazione di ricerca verticale:
1. L'attività o il processo richiede tradizionalmente una ricerca approfondita o una profonda conoscenza della materia?
2. Il risultato dell'attività è una sintesi di informazioni, intuizioni o conoscenze che consentono all'utente di agire o prendere una decisione?
3. Esistono dati storici tecnici o fattuali sufficienti per addestrare l'IA a diventare un esperto nell'area di ricerca verticale?
4. L'LLM è in grado di essere addestrato con nuove informazioni con una frequenza appropriata in modo da fornire informazioni aggiornate?
5. È legale ed etico per l'IA apprendere, replicare e perpetuare le opinioni, le ipotesi e le informazioni incluse nei dati di addestramento?
Rispondere con sicurezza alle domande di cui sopra richiederà una lente multidisciplinare che riunisca le prospettive aziendali, tecniche, legali, finanziarie ed etiche. Ma se la risposta è "sì" a tutte e cinque le domande, è probabile che ci sia un forte caso d'uso per un LLM verticale.
Lasciare che la polvere si depositi
La tecnologia alla base di ChatGPT è impressionante, ma non esclusiva, e diventerà presto facilmente replicabile e mercificabile. Col tempo, l'infatuazione del pubblico per le deliziose risposte prodotte da ChatGPT si affievolirà, mentre le realtà pratiche e i limiti della tecnologia inizieranno a farsi sentire. Di conseguenza, gli investitori e gli utenti dovrebbero prestare attenzione alle aziende che si concentrano sull'affrontare le sfide tecniche, legali ed etiche discusse in precedenza, poiché sono questi i fronti in cui avverrà la differenziazione del prodotto e le battaglie dell'IA saranno, in ultima analisi, vinte.
Ege Gurdeniz è consulente strategico e leader dell'innovazione. Guida trasformazioni digitali su larga scala e aiuta le istituzioni ad adottare in modo responsabile l'IA e altre nuove tecnologie per generare valore per i clienti. Kartik Hosanagar (@khosanagar) è professore di tecnologia e business digitale presso la Wharton School dell'Università della Pennsylvania e co-responsabile del suo centro AI. La sua ricerca attuale si concentra sulla collaborazione tra IA e uomo e su IA e creatività. È autore di A Human's Guide to Machine Intelligence.
Leggi Hbr Italia
anche su tablet e computer
Newsletter