INTELLIGENZA ARTIFICIALE E MACHINE LEARNING
Eric Siegel
Giugno 2023
Illustration by Skizzomat
SI POTREBBE PENSARE che notizie di “importanti scoperte nel campo dell’IA” non possano fare altro che favorire l’adozione del machine learning (ML), ma non è così. Anche prima delle ultime novità – in particolare ChatGPT di OpenAI e altri strumenti di IA generativa – la ricca narrativa su un’IA emergente e onnipotente era già un problema crescente per l’adozione del machine learning applicato. Questo perché, per la maggior parte dei progetti di ML, la parola d’ordine “IA” è eccessiva, in quanto gonfia troppo le aspettative e distrae dal modo preciso in cui il ML migliorerà le operazioni aziendali.
La maggior parte dei casi d’uso pratici di ML, progettati per migliorare l’efficienza delle operazioni aziendali esistenti, innova in modo piuttosto semplice. Non lasciate che lo splendore emanato da questa tecnologia scintillante oscuri la semplicità del suo compito fondamentale: lo scopo del ML è quello di fare previsioni attuabili, motivo per cui a volte viene chiamato anche analisi predittiva. Questo significa un valore reale, a patto che si eviti la falsa percezione secondo cui si tratta di una tecnologia “altamente accurata”, come se fosse una sfera di cristallo digitale.
Questa capacità si traduce in valore tangibile in modo semplice. Le previsioni guidano milioni di decisioni operative. Ad esempio, prevedendo quali clienti hanno maggiori probabilità di disdire, un’azienda può incentivarli a rimanere. E prevedendo quali transazioni con carta di credito sono fraudolente, un processore di carte può rifiutarle. Sono casi d’uso pratici di ML come questi che hanno il massimo impatto sulle operazioni aziendali esistenti e i metodi avanzati di scienza dei dati che tali progetti applicano si riducono al ML e solo al ML.
Ecco il problema: la maggior parte delle persone concepisce il ML come “IA”. Si tratta di un equivoco ragionevole. Ma “IA” soffre di un’inesorabile e incurabile caso di vaghezza: è un termine generico che non si riferisce in modo coerente a nessun metodo o proposta di valore particolare. Chiamare gli strumenti di ML “IA” significa sopravvalutare ciò che la maggior parte delle implementazioni aziendali di ML fanno in realtà. In effetti, non si potrebbe fare una promessa maggiore se si chiama qualcosa “IA”. L’appellativo richiama la nozione di intelligenza artificiale generale (AGI), un software in grado di svolgere qualsiasi compito intellettuale che l’uomo può svolgere. Ciò aggrava un problema significativo dei progetti di ML: spesso non si concentrano sul loro valore, ovvero sul modo in cui il ML renderà più efficaci i processi aziendali. Di conseguenza, la maggior parte dei progetti di ML non riesce a produrre valore. Al contrario, i progetti di ML che mantengono il loro obiettivo operativo concreto in primo piano hanno buone possibilità di raggiungerlo.
Che cosa significa realmente IA?
«AI-powered” è l’insensato equivalente tecnologico di “all natural”».
Devin Coldewey, TechCrunch
L’IA non può essere separata dall’AGI per due motivi. In primo luogo, il termine “IA” viene generalmente utilizzato senza chiarire se stiamo parlando di AGI o di IA ristretta, un termine che essenzialmente significa implementazioni pratiche e mirate di ML. Nonostante le enormi differenze, il confine tra i due termini si confonde nella retorica comune e nelle proposte di vendita dei software.
In secondo luogo, non esiste un modo soddisfacente per definire l’IA oltre all’AGI. Definirla come qualcosa di diverso dall’AGI è diventata una sfida di ricerca a sé stante, anche se di tipo donchisciottesco. Se non significa AGI, non significa nulla – le altre definizioni proposte non riescono a qualificarsi come “intelligenti” nello spirito ambizioso che implica “IA” o non riescono a stabilire un obiettivo oggettivo. Ci troviamo di fronte a questo enigma se cerchiamo di individuare 1) una definizione di “IA”, 2) i criteri in base ai quali un computer si qualificherebbe come “intelligente” o 3) un parametro di prestazione che certifichi la vera IA. Queste tre cose non sono altro che la stessa cosa.
Il problema è la parola stessa “intelligenza”. Quando viene usata per descrivere una macchina è inesorabilmente nebulosa. Questa è una cattiva notizia se si vuole che l’IA sia un campo legittimo. L’ingegneria non può perseguire un obiettivo impreciso. Se non si può definire, non si può costruire. Per sviluppare un apparato, bisogna essere in grado di misurarne la validità – le prestazioni e la vicinanza all’obiettivo – in modo da sapere che si stanno facendo progressi e da sapere, in ultima analisi, quando si è riusciti a svilupparlo.
Nel vano tentativo di evitare questo dilemma, l’industria si esibisce continuamente in una goffa danza di definizioni di IA che io chiamo “pasticcio di IA”. IA significa computer che fanno qualcosa di intelligente (una definizione circolare). No, è l’intelligenza dimostrata dalle macchine (ancora più circolare, se possibile). O ancora, si tratta di un sistema che impiega determinate metodologie avanzate, come il ML, l’elaborazione del linguaggio naturale, i sistemi basati su regole, il riconoscimento vocale, la computer vision o altre tecniche che operano in modo probabilistico (chiaramente, l’impiego di uno o più di questi metodi non qualifica automaticamente un sistema come intelligente).
Sicuramente una macchina si qualificherebbe come intelligente se sembrasse sufficientemente simile a un essere umano, se non fosse possibile distinguerla da questo, ad esempio interrogandola in una chat – il famoso Test di Turing. Ma la capacità di ingannare le persone è un obiettivo arbitrario e mobile, poiché i soggetti umani diventano più saggi nei confronti degli inganni nel corso del tempo. Un sistema può superare il test al massimo una volta: se viene ingannata due volte, l’umanità si vergogna. Un’altra ragione per cui il superamento del Test di Turing non è un successo è che il valore o l’utilità di questo è limitato. Se l’IA può esistere, certamente dovrebbe essere utile.
E se definissimo l’IA in base a ciò che è in grado di fare? Ad esempio, se definiamo l’IA come un software in grado di svolgere un compito così difficile che tradizionalmente richiede un essere umano, come guidare un’auto, padroneggiare gli scacchi o riconoscere i volti umani. Si scopre che nemmeno questa definizione funziona perché, una volta che un computer è in grado di fare qualcosa, tendiamo a banalizzarlo. Dopotutto, i computer possono gestire solo compiti meccanici ben compresi e ben specificati. Una volta superata, l’impresa perde improvvisamente il suo fascino e il computer che è in grado di svolgerla non sembra più “intelligente”, almeno non nella misura che si intende con il termine “IA”. Una volta che i computer hanno imparato a giocare a scacchi, c’era poco da credere che avessimo “risolto” l’IA.
Questo paradosso, noto come Effetto IA, ci dice che, se è possibile, non è intelligente. Soffrendo di un obiettivo sempre sfuggente, l’IA equivale inavvertitamente a “far fare ai computer cose troppo difficili per i computer” – impossibilità artificiale. Nessuna destinazione soddisfa una volta arrivati; l’IA sfida categoricamente la definizione. Con squisita ironia, il pioniere dell’informatica Larry Tesler ha suggerito che potremmo definire l’IA come “tutto ciò che le macchine non hanno ancora fatto”.
Ironia della sorte, è stato proprio il successo misurabile dell’ML a dare risalto all’IA. Dopo tutto, il miglioramento delle prestazioni misurabili è l’apprendimento automatico supervisionato. Il feedback ottenuto dalla valutazione del sistema rispetto a un benchmark, ad esempio un campione di dati etichettati, guida il suo successivo miglioramento. In questo modo, l’apprendimento automatico fornisce un valore senza precedenti in innumerevoli modi. Si è guadagnato il titolo di “tecnologia di uso generale più importante della nostra epoca”, come ha detto Harvard Business Review. Più di ogni altra cosa, i passi da gigante dimostrati dall’ML hanno alimentato l’enfasi per l’IA.
Tutti dentro l’Intelligenza Artificiale Generale
“Prevedo che vedremo il terzo inverno dell’intelligenza artificiale entro i prossimi cinque anni... Quando mi sono laureato con il mio dottorato in Intelligenza Artificiale e ML nel ‘91, IA era letteralmente una parolaccia. Nessuna azienda avrebbe preso in considerazione l’assunzione di qualcuno che se ne occupava”.
Usama Fayyad, 23 giugno 2022, intervenendo alla Machine Learning Week.
C’è un modo per superare il dilemma della definizione: andare fino in fondo e definire l’IA come AGI, un software in grado di svolgere qualsiasi compito intellettuale che gli esseri umani possono svolgere. Se questo obiettivo dal sapore fantascientifico venisse raggiunto, ritengo che ci sarebbe una forte argomentazione per qualificarlo come “intelligente”. Ed è un obiettivo misurabile, almeno in linea di principio, se non nella pratica. Ad esempio, i suoi sviluppatori potrebbero confrontare il sistema con un insieme di 1.000.000 di compiti, tra cui decine di migliaia di complicate richieste di posta elettronica che potreste inviare a un assistente virtuale, varie istruzioni per un dipendente del magazzino che potreste anche impartire a un robot e persino brevi sintesi di un paragrafo su come la macchina dovrebbe, nel ruolo di amministratore delegato, gestire un’azienda Fortune 500 per raggiungere la redditività.
L’AGI può fissare un obiettivo chiaro, ma è fuori dal mondo, un’ambizione che più ingombrante non si può. Nessuno sa se e quando potrà essere raggiunto.
È questo il problema dei tipici progetti di ML. Chiamandoli “IA”, si intende che si trovano sullo stesso spettro dell’IA, che sono costruiti su una tecnologia che si sta attivamente muovendo in quella direzione. L’espressione “IA” perseguita il ML. Invoca una narrazione grandiosa e aumenta le aspettative, vendendo una tecnologia reale in termini non realistici. Questo confonde i decision maker e fa fallire i progetti a destra e a manca.
È comprensibile che molti vogliano rivendicare una fetta della torta dell’IA, se è fatta degli stessi ingredienti dell’AGI. L’appagamento dei desideri che l’AGI promette – una sorta di potere definitivo – è così seducente da risultare quasi irresistibile.
Ma c’è un modo migliore di procedere, che è realistico e che, a mio avviso, è già abbastanza eccitante: gestire in modo più efficace le operazioni più importanti, le cose principali che facciamo come organizzazioni! La maggior parte dei progetti di ML commerciali mira proprio a questo. Affinché possano avere un successo maggiore, dobbiamo tornare con i piedi per terra. Se il vostro obiettivo è fornire valore operativo, non comprate e non vendete “IA”. Dite ciò che intendete e intendete ciò che dite. Se una tecnologia è costituita da ML, chiamiamola così.
Le notizie sull’imminente obsolescenza della mente umana sono state molto esagerate, il che significa che un’altra era di disillusione dell’IA è vicina. E, a lungo termine, continueremo a sperimentare gli inverni dell’IA finché continueremo ad applicare iperbolicamente quel termine. Ma se attenuiamo la retorica dell’IA o differenziamo in altro modo il ML da questa, potremo isolare adeguatamente il ML come settore dal prossimo inverno dell’IA. Ciò significa resistere alla tentazione di cavalcare l’onda degli entusiasmi e astenersi dal celebrare i decision maker che si inchinano con orgoglio davanti all’altare di un’IA onnipotente. Altrimenti, il pericolo è ben chiaro: quando il clamore si affievolirà, l’eccesso di vendite verrà svelato e arriverà l’inverno; gran parte della vera proposta di valore dell’IA verrà inutilmente eliminata insieme ai miti, come il bambino con l’acqua sporca.
Questo articolo è il frutto del lavoro dell’autore come Bodily Bicentennial Professor in Analytics presso la UVA Darden School of Business.
Eric Siegel, è fondatore della serie di conferenze Machine Learning Week e direttore esecutivo di The Machine Learning Times. Eric è autore del libro di prossima pubblicazione The AI Playbook: Mastering the Rare Art of Machine Learning Deployment e del bestseller Predictive Analytics: The Power to Predict Who Will Click, Buy, Lie, or Die, utilizzato nei corsi di centinaia di università. Ha vinto il premio Distinguished Faculty quando era professore alla Columbia University, dove ha insegnato Machine Learning e AI. In seguito, è stato professore di economia alla UVA Darden.
SINTESI
L’apprendimento automatico ha un problema di “IA”. Con le nuove capacità mozzafiato dell’IA generativa che vengono rilasciate ogni mese – e l’enfasi sull’IA in continuo aumento – è giunto il momento di differenziare la maggior parte dei progetti di ML pratici di oggi dai progressi della ricerca. Per cominciare, è necessario dare un nome corretto a questi progetti: vanno chiamati “ML”, non “IA”. Includere tutte le iniziative di ML sotto l’ombrello IA è un’idea sbagliata e fuorviante, che contribuisce all’alto tasso di fallimento delle applicazioni aziendali di ML. Per la maggior parte dei progetti di ML, il termine va troppo in là, alludendo a capacità di livello umano. In realtà, se si analizza il significato di “IA”, si scopre quanto sia inflazionata come parola d’ordine: se non significa intelligenza artificiale generale, obiettivo tecnologico grandioso, allora non significa proprio nulla.
Leggi Hbr Italia
anche su tablet e computer
Newsletter