TECNOLOGIA
Jaime Teevan
Gennaio 2024
HBR Staff/Unsplash
In qualità di Chief Scientist di Microsoft, il mio lavoro consiste nel condurre ricerche che migliorino il lavoro. Ed è un momento incredibilmente eccitante per farlo. Studi su studi dimostrano che i recenti progressi dell’IA consentiranno alle persone di lavorare in modi sostanzialmente nuovi e più produttivi, e abbiamo appena iniziato a scalfire la superficie di ciò che è possibile fare. Nei 17 anni trascorsi in Microsoft, non sono mai stata così ottimista sull’opportunità che l’informatica cambi il lavoro in meglio.
Uno dei motivi per cui quest’ultima generazione di strumenti di IA è così promettente è che ora le persone possono interagire con i loro computer nello stesso modo in cui hanno interagito con gli altri esseri umani per millenni: il linguaggio naturale. Si tratta di un cambiamento enorme. In precedenza, l’unico modo per comunicare idee complesse ai computer era quello di utilizzare linguaggi progettati per i computer stessi: scrivere una formula di un foglio di calcolo esattamente nel modo giusto, ricordare le parole chiave esatte per una ricerca via e-mail o imparare un linguaggio di programmazione. Ora molte di queste limitazioni non esistono più: è possibile dire a un’intelligenza artificiale cosa fare semplicemente scrivendo un messaggio in linguaggio naturale.
Sebbene questa capacità di comunicare con i sistemi di intelligenza artificiale tramite messaggi sia un enorme progresso, le ricerche dimostrano che introduce anche una comprensibile curva di apprendimento. Anche per me è una strana novità poter parlare con un computer in inglese. Gli scienziati di tutto il mondo stanno lavorando duramente per appiattire questa curva e stanno facendo molti progressi (ad esempio, il lavoro di “ottimizzazione dei messaggi”). Tuttavia, la ricerca è chiara: è possibile ottenere molto di più dall’IA se si fa un po’ di formazione su come scrivere buoni prompt. Un recente studio condotto su consulenti di gestione presso BCG, ad esempio, ha rilevato che i consulenti che ricevono una formazione sui prompt sono più bravi a sfruttare la potenza dell’IA rispetto a quelli che non lo fanno.
Fortunatamente, le ricerche condotte da Microsoft e dalla comunità accademica hanno dato i primi risultati che possono aiutare le persone ad accelerare il loro percorso di prompting. La maggior parte di questi risultati si riconduce a un’intuizione chiave: anche se si utilizza il linguaggio naturale, bisogna ricordare che un sistema di intelligenza artificiale deve sapere cose diverse rispetto a un essere umano.
PADRONEGGIARE IL LINGUAGGIO DELL’IA
Che cosa deve arrivare a sapere in un messaggio un computer che un umano potrebbe anche non sapere? Come si possono utilizzare queste informazioni per migliorare i messaggi? Di seguito sono riportate alcune teorie e risultati della letteratura scientifica che possono aiutare a rispondere a questa domanda.
Fornite più contesto di quanto non facciate con una persona
La psicolinguistica, che studia gli aspetti psicologici del linguaggio, ci ha insegnato da tempo il ruolo centrale del grounding in qualsiasi comunicazione. In parole povere, la messa a terra è il processo che porta a un significato reciprocamente compreso attraverso la conversazione: ci si assicura, in breve, di essere sulla stessa lunghezza d’onda. Per esempio, se le persone che partecipano a una riunione hanno una comprensione condivisa delle azioni da intraprendere alla fine della riunione (e sanno di averla), probabilmente è perché hanno trascorso molto tempo a definire i passi successivi.
Il processo di messa a terra con un modello linguistico di grandi dimensioni è diverso da quello che attuiamo con un’altra persona, perché il modello di solito ha un contesto meno condiviso. Rendere esplicito il contesto nel prompt aiuta a ottenere risultati migliori. Ad esempio, quando parlo con un ricercatore del mio team, entrambi conosciamo tutte le sessioni di brainstorming che abbiamo avuto in passato sull’argomento, le competenze che quella persona possiede e così via, ma un LLM no, almeno non ancora. Quindi, se uso l’intelligenza artificiale per aiutarmi a scrivere un’e-mail a quella persona, può essere utile fornire i pezzi più importanti del contesto su tutte le altre cose che io conosco e che un LLM potrebbe non conoscere. Una persona potrebbe considerare scortese dirle esattamente il contesto di cui ha bisogno, ma il laureato in legge ovviamente non lo farà.
Grazie a tecniche come la “retrieval-augmented generation” e ad altri recenti progressi tecnologici, la quantità di contesto che dovrete fornire si ridurrà di molto. L’intelligenza artificiale può cercare nelle e-mail e nei documenti passati un contesto utile, ad esempio. Anche il contesto attuale fornisce materiale di base. Alcuni sistemi, ad esempio, basano le domande poste su una riunione sulla trascrizione della stessa. Detto questo, data l’importanza della base per una cooperazione efficace, continuare a fornire il giusto contesto sarà fondamentale.
Utilizzate la “saggezza delle folle”
La ricerca suggerisce che le persone possono catturare la “saggezza delle folle” approcciando un problema da diverse prospettive – ora possiamo farlo con l’IA. Spesso trovo utile chiedere almeno tre risposte (ad esempio, “genera almeno tre titoli” o “dimmi tre modi in cui riscriveresti questo paragrafo”), a volte anche dando una struttura alle idee (“fanne almeno una divertente e una formale”). E quando si ha un’idea precisa di ciò che si vuole ottenere dal modello, gli si fornisce qualche esempio. Questo processo, chiamato “apprendimento per tentativi”, aiuterà il modello LLM a rispondere ai vostri desideri.
Affidatevi al riconoscimento, non al richiamo
Un principio fondamentale dell’interazione con il computer è che per le persone è molto più facile riconoscere i comandi che vogliono impartire piuttosto che ricordarli. Pensate a quanto sia più facile scegliere qualcosa da un elenco piuttosto che inventare qualcosa da zero. Questo è il motivo per cui quasi tutti noi usiamo interfacce grafiche invece di “linee di comando” come il DOS; è molto più facile, ad esempio, fare doppio clic per aprire il logo di un’applicazione piuttosto che ricordare il comando specifico per aprire un’applicazione e poi ricordare il nome formale dell’applicazione.
Aiutare le persone a riconoscere il prompt che potrebbero desiderare, invece di doverlo sviluppare da zero, è un fattore che motiva molte nuove funzionalità di IA. In alcuni sistemi di intelligenza artificiale avanzati, è possibile accedere a un’enorme libreria di suggerimenti pre-scritti, salvare i preferiti per non doverli ricordare e così via. Questi vengono visualizzati nell’esperienza dell’utente e, col tempo, inizieranno a essere inclusi anche i migliori suggerimenti utilizzati da voi e dalla vostra organizzazione. Nel frattempo, conservo un file con alcuni dei miei suggerimenti personali preferiti che non sono ancora inclusi nella libreria. Per esempio, eccone uno che uso spesso:
«Sono un ricercatore che invia questa e-mail a un gruppo di team con cui collaboro. Per favore, ditemi dove mettere una bandierina rossa quando la invio».
Fate in modo che sia una conversazione, non una singola richiesta
Uno dei risultati principali segnalati in letteratura è che suddividere le richieste complesse in più fasi può aiutare le persone a ottenere con maggiore successo ciò che vogliono dagli LLM. Esistono modi più formali per farlo (ad esempio, la “catena di pensiero”), ma anche le strategie informali possono avere successo. Per esempio, ho scoperto che è meglio chiedere prima un riassunto di un articolo che voglio capire, e poi chiedere separatamente gli approfondimenti. Per esempio:
- Per favore, riassumi l’articolo in punti, concentrandoti su ciò che potrebbe interessare a un dirigente Microsoft (con un particolare interesse per la ricerca).
- Quali domande dovrebbe porsi tale dirigente rispetto all’articolo? Includete le risposte alle domande, citando il più possibile l’articolo. E se la risposta alla domanda non è contenuta nell’articolo, rispondete con: “La risposta non è contenuta nell’articolo”. (Oppure “La domanda risponde solo in parte”, con una descrizione della risposta parziale e di ciò che occorre sapere per fornire una risposta completa).
Se all’inizio non ci riuscite, riprovate (in un altro modo).
I LLM sono tecnologie relativamente nuove e ci sono molte cose che non capiamo di loro. Ciò significa che a volte non siamo in grado di spiegare perché un prompt formulato in un certo modo funziona bene e uno formulato in un altro modo no, e questo può variare tra le diverse versioni e applicazioni dello stesso modello di intelligenza artificiale. Quindi, se provate un prompt e non funziona, provate a riformularlo per scoprire cosa funziona bene. Potete anche chiedere all’intelligenza artificiale come dovreste porre la vostra domanda a un professore universitario. Non è facile fare tabula rasa e provare qualcosa di nuovo con una persona, ma potete farlo facilmente con l’intelligenza artificiale. Divertitevi a vedere dove possono portarvi le diverse strategie.
ASSISTENZA TEMPESTIVA
Se i LLM rappresentano un nuovo paradigma di interazione con i computer, un buon supporto ai prompt può essere come la “barra multifunzione” dei comandi comuni che appaiono in applicazioni come Word ed Excel e che permettono alle persone di sbloccare ulteriori funzionalità dell’applicazione. Stiamo facendo ricerche, ad esempio, su come consigliare automaticamente suggerimenti personalizzati che possano aiutare l’utente a compiere il passo successivo nel suo flusso di lavoro o a risolvere un punto della sua lista di cose da fare. E ci aspettano molte altre ricerche interessanti. Le migliori strategie di suggerimento cambieranno nel tempo, man mano che si renderanno disponibili nuove funzionalità e si inizierà a capire cosa c’è di veramente eccezionale nell’integrazione degli LLM nel nostro lavoro. Una maggiore personalizzazione, ad esempio, renderà meno importante la necessità di specificare il contesto, mentre la capacità degli LLM di intraprendere azioni renderà più importanti i prompt che supportano la pianificazione.
Finora, molte delle migliori strategie di prompt sono state sviluppate dai ricercatori. Essi hanno dimostrato che un buon suggerimento può spesso fornire un beneficio ancora maggiore rispetto al miglioramento del modello sottostante. Ad esempio, un recentissimo lavoro di Microsoft ha dimostrato che si possono ottenere enormi incrementi di prestazioni dai LLM in ambito medico semplicemente cambiando la strategia di prompt, sfidando le ipotesi sulla necessità di nuovi processi di formazione del modello. Ma per quanto questi ricercatori siano intelligenti, lo spazio che possono esplorare è relativamente limitato. Sempre più spesso saremo in grado di apprendere le strategie migliori dai milioni di persone che utilizzano gli LLM. Man mano che un numero maggiore di persone utilizzerà questi strumenti e che questi ultimi si evolveranno, continueremo a imparare di più.
Le conversazioni in linguaggio naturale sono alla base del modo in cui le persone lavorano. Storicamente questo è stato vero per il modo in cui lavoriamo insieme e ora è vero anche per il modo in cui lavoriamo con i nostri computer. Queste conversazioni contengono molte conoscenze che gli LLM potranno sbloccare. Una conversazione con PowerPoint, ad esempio, può diventare una presentazione straordinaria. Ma le conversazioni non sono solo fatti e dati, anche la base e la struttura sono importanti. Ecco cos’è l’ingegneria della domanda. E man mano che cominciamo a scoprire i nuovi modi di lavorare che i LLM aprono, anche questa struttura si evolverà. Sono entusiasta di continuare a praticare e imparare e spero che lo siate anche voi.
Jaime Teevan è Chief Scientist di Microsoft, dove è responsabile dell’innovazione dei prodotti Microsoft basata sulla ricerca. Il suo primo lavoro in Microsoft si è concentrato sull’utilizzo dell’intelligenza artificiale per aiutare le persone a raggiungere i propri obiettivi, sviluppando il primo algoritmo di ricerca personalizzata utilizzato da Bing e introducendo la microproduttività in Microsoft Office. Jaime è stata consulente tecnico dell’amministratore delegato di Microsoft e attualmente guida gli sforzi di Microsoft per comprendere le pratiche lavorative post-Covid.
Leggi Hbr Italia
anche su tablet e computer
Newsletter