SPECIALE
Thomas H. Davenport, Nitin Mittal, Aamer Baig, Jan Shelly Brown, William Forrest, Vinayak HV, Lareina Yee, Eugenio Zuccarelli, Cosimo Accoto, Terence Tse, Mark Esposito, Danny Goh
Marzo 2023
Basta temporeggiare con l’IA
È tempo di impegnarsi a fondo
Thomas H. Davenport, Nitin Mittal
Se chiedete a qualcuno di farvi il nome di un’azienda che mette l’intelligenza artificiale (IA) al centro della sua attività, probabilmente sentirete sciorinare il prevedibile elenco delle superpotenze tecnologiche: Alphabet (Google), Meta (Facebook), Amazon, Microsoft, Tencent e Alibaba. Nelle aziende consolidate di altri settori, però, molti dirigenti hanno la sensazione che trasformare l’organizzazione usando l’IA sia qualcosa al di sopra delle loro capacità. Eppure questa tecnologia è relativamente nuova e un decennio fa non esisteva nessuna azienda che facesse affidamento sull’IA, il che significa che quelle dove ora l’IA gioca un ruolo centrale hanno superato con successo una serie di tappe fondamentali: incaricare qualcuno di creare l’IA, mettere insieme i dati, i talenti e gli investimenti necessari e muoversi con tutta la determinazione possibile per dotarsi delle capacità indispensabili.
Più facile a dirsi che a farsi? Sì. In tante organizzazioni le iniziative in materia di IA mancano di ambizione e di convinzione e non arrivano mai all’unico passaggio in grado di aggiungere valore economico: prendere un modello e applicarlo su larga scala. In un’inchiesta realizzata nel 2019 dalla MIT Sloan Management Review e dal Boston Consulting Group, sette aziende su dieci hanno riferito che le loro iniziative di IA avevano avuto un impatto minimo o addirittura nullo. Dalla stessa inchiesta emergeva che, all’interno di quel 90% di aziende che avevano fatto investimenti sull’IA, meno del 40% aveva registrato miglioramenti nell’andamento degli affari nei tre anni precedenti. Non è sorprendente: un programma pilota o un esperimento più di tanto non possano fare.
Nelle nostre ricerche degli ultimi anni abbiamo individuato 30 aziende private e organismi pubblici (non sempre famosi per la loro perizia tecnologica) che hanno deciso di puntare con forza sull’IA e ne hanno raccolto i benefici. Molte di queste aziende competono in settori come le banche, il commercio al dettaglio e i prodotti di consumo. Abbiamo studiato il loro percorso e identificato 10 azioni intraprese da queste 30 organizzazioni per diventare esempi di successo nell’adozione dell’IA.
Per ricavare un valore significativo dall’IA, la vostra organizzazione deve ripensare alla radice il modo in cui esseri umani e macchine interagiscono nei contesti lavorativi. Bisogna concentrarsi su applicazioni in grado di cambiare il rendimento dei dipendenti e sul modo in cui i clienti interagiscono con l’azienda. Bisogna prendere in considerazione in modo sistematico l’applicazione dell’IA in ognuna delle funzioni e delle attività operative fondamentali per supportare nuovi processi e un percorso decisionale alimentato dai dati. Allo stesso modo, l’IA deve stimolare nuove offerte di prodotti e servizi e nuovi modelli d’impresa. In altre parole, la tecnologia deve arrivare a trasformare ogni aspetto della vostra azienda.
Ognuna delle 10 azioni che elenchiamo in questo articolo avvicineranno la vostra impresa all’obiettivo della trasformazione: ma se non volete che questa trasformazione rimanga a metà, dovete evitare iniziative frammentarie e affrontare con decisione tutti e 10 questi compiti. Gli esempi che accompagnano ognuno di essi descrivono nel dettaglio che cosa hanno fatto alcune organizzazioni per portare a termine il compito con successo. La vostra impresa può scegliere di gestire i vari compiti in modo diverso o affrontarli seguendo un altro ordine.
1 SAPERE CHE COSA VOLETE REALIZZARE
Le aziende ambiziose hanno una percezione specifica di come applicare l’IA. L’obiettivo di fondo è guadagnare di più, naturalmente, ma se si vuole individuare e sviluppare sistemi di IA capaci di trasformare l’organizzazione serve un obiettivo più chiaro. Alcune imprese cominciano a usare la tecnologia per migliorare la velocità dei processi, ridurre i costi operativi o vendere meglio. Qualunque sia il motivo per cui volete usare l’IA, noi consigliamo di individuare un obiettivo generale ben definito e usarlo come principio guida.
Quando, nel 2014, la divisione audit e assicurazioni di Deloitte cominciò a sviluppare Omnia, una piattaforma di IA brevettata, il principio guida era migliorare la qualità del servizio a livello globale. Creare uno strumento globale in quest’ambito non è semplice come tradurre i dati in più lingue. Esistono importanti differenze nel modo in cui i diversi Paesi regolamentano i dati, inclusi gli standard di riservatezza, i processi di auditing e la gestione dei rischi.
Una parte importante nella revisione dei conti di un’azienda consiste nel raccogliere dati finanziari e operativi in un formato che possa essere facilmente analizzato. Dal momento che la strutturazione dei dati è diversa da un’azienda all’altra, estrarre dati rilevanti e caricarli su una piattaforma di auditing è un’operazione che può richiedere una gran quantità di manodopera. La piattaforma Omnia era stata sperimentata con un cliente statunitense, ma l’obiettivo era farne uno strumento utilizzabile in tutto il mondo: questo presentava diversi problemi specifici già in partenza, come sviluppare un unico modello dati che funzionasse con tutti i clienti e in tutte le regioni.
Il fatto di aver immaginato Omnia come uno strumento globale ancora prima di crearla ha consentito agli sviluppatori di Deloitte di focalizzarsi sulla standardizzazione delle informazioni provenienti da aziende diverse in Paesi diversi: un’impresa enorme, ma che sarebbe stata ancora più impegnativa nelle fasi successive del processo di sviluppo.
2 LAVORARE CON UN ECOSISTEMA DI PARTNER
Per costruire Omnia, la divisione auditing e assicurazioni di Deloitte dovette tenere sotto osservazione le start-up tecnologiche di tutto il mondo per trovare soluzioni adatte alle necessità dell’azienda. Senza questi partner, Deloitte avrebbe dovuto sviluppare le tecnologie al proprio interno, cosa che sarebbe stata possibile, ma a un costo molto più alto e con tempi ben più lunghi. Un’azienda ha bisogno di partner solidi se vuole avere successo con l’IA.
Deloitte lavorò con Kira Systems, una start-up canadese che ha un software in grado di estrarre le condizioni contrattuali dai documenti legali. Tradizionalmente, i revisori di Deloitte dovevano leggersi un gran numero di contratti ed eseguire questo compito manualmente, ma ora la tecnologia di elaborazione del linguaggio naturale di Kira identifica ed estrae in modo automatico le condizioni contrattuali fondamentali. Un altro partner, la Signal AI, ha costruito una piattaforma che analizza i dati finanziari disponibili pubblicamente per individuare potenziali fattori di rischio nell’attività di un’azienda cliente. Una recente aggiunta alla piattaforma Omnia è Trustworthy AI, un modulo sviluppato in collaborazione con Chatterbox Labs, che valuta i modelli di IA per individuare distorsioni.
3 PADRONEGGIARE L’ANALITICA DEI DATI
La maggior parte delle aziende che hanno adottato con successo l’IA avevano già in piedi importanti iniziative di analitica dati prima di immergersi nell’intelligenza artificiale. Anche se qualsiasi forma di apprendimento automatico può includere altre tecnologie non basate sull’analitica dati, come azioni autonome, robotica e metaverso, questa è il cuore pulsante dell’apprendimento automatico ed è il motivo per cui saper padroneggiarla è fondamentale per riuscire ad adottare l’IA con successo.
Ma cosa significa esattamente “padroneggiare l’analitica dati”? In questo contesto comporta l’impegno a usare i dati e l’analytics per la maggior parte delle decisioni: questo significa cambiare il modo di trattare con i clienti, rendere l’IA parte integrante di prodotti e servizi e realizzare molti compiti – anche interi processi aziendali – in modo più automatizzato e intelligente. E per trasformare la loro attività attraverso l’IA, è sempre più importante che le aziende possano contare su dati unici o proprietari: se tutti i loro concorrenti hanno gli stessi dati, tutti avranno modelli di apprendimento automatico e risultati simili.
La Seagate Technology, il più grande produttore mondiale di unità disco, possiede quantità colossali di dati da sensori nelle sue fabbriche e, negli ultimi cinque anni, li sta usando ad ampio raggio per migliorare la qualità e l’efficienza dei suoi processi di produzione. Uno dei punti focali di questo sforzo è stata l’automazione dell’ispezione visiva dei wafer di silicio da cui vengono ricavate le testine delle unità disco e le macchine utensili che le fabbricano. Per tutto il processo di fabbricazione dei wafer di silicio, le varie macchine utensili acquisiscono una gran quantità di immagini al microscopio. Usando i dati ricavati da queste, la fabbrica di Seagate, nel Minnesota, ha creato un sistema automatizzato che consente alle macchine di trovare e classificare in modo diretto i difetti dei wafer di silicio. Altri modelli di classificazione delle immagini individuano i microscopi elettronici fuori fuoco negli strumenti di monitoraggio, per appurare se i difetti esistano veramente. Da quando questi modelli sono stati impiegati per la prima volta, alla fine del 2017, il loro utilizzo si è esteso a tutte le fabbriche di wafer di silicio dell’azienda negli Stati Uniti e in Irlanda del Nord, consentendo di risparmiare milioni di dollari in costi di personale per le ispezioni e in prevenzione degli scarti di lavorazione. L’accuratezza dell’ispezione visiva, che anni fa era del 50%, ora supera il 90%.
I dati sono la base del successo nell’apprendimento automatico e i modelli non sono in grado di fare previsioni accurate se non hanno a disposizione dati di qualità in abbondanza. Si può dire che l'ostacolo più grande per la maggior parte delle organizzazioni che vogliono potenziare i loro sistemi di IA sta proprio nell’acquisire, ripulire e integrare i dati giusti. Un’altra cosa importante è cercare attivamente nuove fonti di dati per nuove iniziative di IA: ne parleremo più avanti.
4 CREARE UN’ARCHITETTURA INFORMATICA MODULARE E FLESSIBILE
È indispensabile avere un modo per estendere facilmente dati, analitica e automazione a tutte le applicazioni della vostra impresa. A questo scopo, c’è bisogno di un’infrastruttura tecnologica che sia in grado di comunicare e comprendere dati provenienti da altri ambienti informatici, sia all’interno che all’esterno della vostra azienda. Il software di un centro dati normalmente è progettato soltanto per comunicare con altri software dello stesso centro dati. Integrarlo con software esterni a quell’infrastruttura è una cosa che può portare via tempo e denaro.
Un’architettura informatica flessibile rende più semplice automatizzare processi complessi, come l’estrazione delle condizioni contrattuali chiave dai documenti legali in Deloitte. Se non siete in grado di sviluppare un’architettura di questo tipo da soli (per le piccole e medie imprese è quasi sempre così), potreste dover collaborare con società come Microsoft Azure, Amazon Web Services (AWS) o Google Cloud.
Capital One, considerata da decenni una superpotenza nel campo dell’analitica dati, ha usato questa metodologia per comprendere gli schemi di spesa dei consumatori, ridurre il rischio di credito e migliorare il servizio ai clienti. (Avvertenza: uno di noi, Tom, è stato oratore retribuito per Capital One.) Nel 2011 l’azienda ha preso la decisione strategica di reinventare e modernizzare cultura, processi operativi e infrastruttura tecnologica di base. Questa trasformazione è consistita nel passare a un modello agile per la fornitura di software, costruire un’organizzazione ingegneristica su larga scala e assumere migliaia di persone per ricoprire ruoli digitali. Ha anche indotto l’azienda a spostare i suoi dati sul cloud.
Capital One ha costruito la sua architettura cloud in collaborazione con AWS. Prima del passaggio al cloud, però, i dirigenti di Capital One hanno dovuto reimmaginare il futuro dell’industria bancaria. I canali digitali su cui stanno migrando i clienti, come il sito e l’applicazione per cellulari della banca, producevano molti più dati rispetto alle interazioni personali, offrendo alla banca l’opportunità di capire meglio in che modo i clienti interagivano con essa. Il passaggio al cloud aveva senso da un punto di vista strategico anche perché avrebbe fatto calare i costi dell’archiviazione dei dati. Nel 1960, secondo i dati della Marshall School of Business dell’Università della California meridionale, archiviare un gigabyte di informazioni costava 2 milioni di dollari. Questo costo era sceso a 200.000 dollari negli anni Ottanta, a 7,7 dollari nei primi anni Duemila e – grazie all’archiviazione su cloud – ad appena 2 centesimi nel 2017.
La Capital One appurò che AWS poteva fornire un’archiviazione dati e una potenza di calcolo sul cloud, basata su software fortemente scalabile e disponibile all’istante, a un costo molto più basso rispetto all’archiviazione in locale. AWS metteva a disposizione anche strumenti nuovi e innovativi e piattaforme di apprendimento automatico. Non aveva più senso, per l’organizzazione informatica di Capital One, costruire e gestire soluzioni infrastrutturali per tutti questi dati, per cui cominciò a concentrarsi sullo sviluppo di software e capacità. Oggi Capital One analizza un flusso interminabile di dati da transazioni via web e cellulare, sportelli bancomat e transazioni con carta in tempo reale, per soddisfare le esigenze dei clienti e prevenire le frodi. Nel 2020 la banca ha chiuso il suo ultimo centro dati e ha trasferito tutte le sue applicazioni e tutti i suoi dati sul cloud di AWS.
Molte aziende, naturalmente, hanno già trasferito dati e applicazioni sul cloud (o li creano direttamente sul cloud). Per quelle che non l’hanno fatto, adottare con successo sistemi di IA sarà più difficile.
5 INTEGRARE L’IA NEI FLUSSI DI LAVORO ESISTENTI
La presenza di processi aziendali inflessibili può essere altrettanto limitante di un’architettura informatica inflessibile. Le società descritte in questo articolo si sono impegnate a fondo per integrare l’IA nei flussi di lavoro quotidiani di dipendenti e clienti. Per fare la stessa cosa nella vostra organizzazione, stabilite innanzitutto quale dei vostri flussi di lavoro è pronto per accogliere la velocità e l’intelligenza dell’IA e cominciate a integrarli con essa il prima possibile. Bisogna evitare di infilare a forza l’IA in flussi di lavoro che non trarrebbero beneficio dalla velocità e dalla scalabilità delle macchine, come ad esempio processi aziendali usati raramente, che non prevedono né generano quantità enormi di dati e ripetizioni.
L’integrazione dell’IA nel flusso di lavoro richiede un piano d’attacco ancora più specifico di quello del primo compito, “Sapere che cosa volete realizzare”. Immaginiamo che abbiate stabilito che la cosa che volete migliorare è il servizio clienti. Per integrare l’IA a flussi di lavoro già esistenti c’è bisogno di un’ottima conoscenza sul campo di questi processi, rara fra gli alti dirigenti. Ma i dipendenti che lavorano nelle funzioni di linea hanno una prospettiva ideale per capire quali processi possono trarre beneficio dall’IA e come possono essere migliorati esattamente.
Alcune ramificazioni del governo americano hanno individuato mansioni e flussi di lavoro specifici che si prestano ottimamente alla velocità e alla scalabilità dell’IA. La NASA, per esempio, ha lanciato dei progetti pilota nell’ambito della contabilità attiva e passiva, la spesa informatica e le risorse umane. (Grazie al progetto sulle risorse umane, l’86% delle transazioni della NASA in quest’ambito sono state completate senza intervento umano.) La Social Security Administration, l’ente previdenziale pubblico, usa l’IA e l’apprendimento automatico nelle richieste di indennità per affrontare i problemi legati al forte arretrato di pratiche e per garantire accuratezza e uniformità nelle decisioni. All’inizio della pandemia di Covid-19, il dipartimento per gli Affari dei veterani ha implementato chatbot di IA per rispondere a quesiti, aiutare a stabilire la gravità dei casi confermati e trovare possibili strutture per il ricovero dei pazienti. Il Laboratorio per la sicurezza dei trasporti del Direttorato scienza e tecnologia del dipartimento della Sicurezza interna sta studiando modi per incorporare l’IA e l’apprendimento automatico negli screening di sicurezza degli aeroporti, in modo da migliorare la scansione dei passeggeri e dei bagagli. L’Internal Revenue Service, l’agenzia delle entrate, sta usando l’IA per verificare quali combinazioni di notifiche formali hanno le maggiori probabilità di indurre un contribuente in debito con il fisco a pagare.
6 COSTRUIRE SOLUZIONI IN TUTTA L’ORGANIZZAZIONE
Dopo che l’organizzazione ha sperimentato e acquisito dimestichezza con un sistema di IA all’interno di un flusso di lavoro specifico, arriva il momento di estenderlo a tutta l’organizzazione con maggiore aggressività. Invece di disegnare un modello algoritmico per un processo, il vostro obiettivo dovrebbe essere quello di trovare un approccio uniforme, replicabile in tutta l’azienda.
Alla Cleveland Clinic «l’IA spunta fuori da tutte le parti», secondo Chris Donovan, direttore esecutivo per l’analitica d’impresa e la gestione dell’informazione. Il suo gruppo incoraggia le iniziative guidate dai dipendenti per sviluppare e applicare l’IA, fornendo al tempo stesso approcci di governance guidati dalla dirigenza. Finora a fare da traino all’iniziativa è stata una comunità di pratica trasversale all’organizzazione, ancorata nei reparti analitica d’impresa, informatica ed etica.
Come la maggior parte delle organizzazioni che stanno mettendo in moto trasformazioni aggressive fondate sull’IA, la Cleveland Clinic si deve misurare con una sfida enorme relativa a dati e analisi. Secondo Donovan, gli ospedali hanno molti meno dati delle organizzazioni di altri settori ed è meno probabile che questi siano puliti e ben strutturati. I dati della Cleveland Clinic, dice, hanno problemi di qualità, vengono rilevati in modo scadente e inseriti con modalità difformi, e hanno definizioni differenti a seconda dei reparti dell’organizzazione. Perfino un parametro banale come la pressione del sangue può essere preso mentre il paziente è in piedi, seduto oppure sdraiato, normalmente con risultati differenti, e viene archiviato nei modi più vari. Per interpretare in modo accurato i dati sulla pressione sanguigna bisogna conoscere la struttura dei dati di ogni reparto. Invece di lasciare la preparazione dei dati a ogni reparto della clinica per ogni singolo insieme di questi, il gruppo di Donovan la integra in ogni progetto di IA e lavora per fornire insiemi utili a tutti i progetti di IA.
La Cleveland Clinic usa l’IA anche per valutare il rischio nel profilo sanitario della popolazione di riferimento: ha costruito un modello predittivo che aiuta a decidere in base alle priorità l’impiego di risorse limitate per fornire assistenza medica ai pazienti che più ne hanno bisogno. Il punteggio di rischio predittivo ora è il metodo primario per decidere a quali pazienti spedire l’invito a fare un controllo. Un malato di diabete che ha difficoltà a gestire la malattia, per esempio, riceverebbe un punteggio di rischio alto. La Cleveland Clinic ha costruito un altro modello per individuare quei pazienti che corrono il rischio di contrarre una certa malattia, ma non hanno avuto sintomi in tal senso in passato: è usato per programmare attivamente cure preventive per queste persone. La Cleveland Clinic sta lavorando anche per individuare quei pazienti con condizioni di vita o lavorative problematiche, che influenzano la loro salute: potrebbero aver bisogno di un assistente sociale oltre che di un medico, o di una tessera dell’autobus per andare alle visite mediche.
7 CREARE UNA GOVERNANCE E UNA STRUTTURA DI COMANDO DELL’IA
Assegnare a qualcuno l’incarico di decidere come dev’essere implementata l’intelligenza artificiale in tutta l’organizzazione rende più facile la trasformazione. I leader migliori sono consapevoli di quello che può fare l’IA in generale, di quello che può fare per la loro azienda e di quali implicazioni potrebbe avere per strategie, modelli d’impresa, processi e persone. Ma la sfida più grande che deve affrontare un leader è creare una cultura che metta al centro decisioni e azioni fondate sui dati e crei entusiasmo fra i dipendenti per le potenzialità di miglioramento offerte dall’IA. In un’organizzazione in cui non esiste una cultura di questo tipo, i sostenitori dell’IA difficilmente otterranno le risorse necessarie per costruire applicazioni eccellenti e non avranno la possibilità di assumere le persone migliori; e se anche l’azienda dovesse riuscire a costruire delle applicazioni di IA, finirebbe per non usarle nel modo più efficace.
Che tipo di leader serve per promuovere la cultura giusta? Prima di tutto, aiuta avere a capo dell’iniziativa un amministratore delegato o un altro alto dirigente che conosca bene le tecnologie informatiche. Un’iniziativa per l’adozione dell’IA può essere guidata anche da una persona che non ha conoscenze tecniche, ma in tal caso la persona in questione dovrà imparare tante cose e pure in fretta. In secondo luogo, è importante che il leader lavori su più fronti. Le iniziative a cui sceglie di partecipare varieranno a seconda dell’organizzazione, ma la partecipazione di un alto dirigente è particolarmente importante per segnalare che c’è interesse per la tecnologia, per istituire una cultura di decisioni fondate sui dati, per stimolare l’innovazione in tutta l’impresa e per motivare i dipendenti ad adottare nuove competenze. In terzo luogo, i leader sono quelli che hanno in mano i cordoni della borsa. Studiare, sviluppare e implementare l’IA è costoso. I leader devono investire (o convincere altri a investire) somme sufficienti a rendere possibile l’adozione dell’IA a tutti i livelli.
Avere un’unica persona a capo delle iniziative di IA aiuta, ma in prospettiva è indispensabile che tutta l’organizzazione, fino ai livelli più bassi, abbracci con dedizione questi sforzi. Se i manager di alto livello, di livello intermedio e anche quelli in prima linea proclamano un’adesione solo formale all’idea di una trasformazione basata sull’IA, le cose procederanno più lentamente e l’organizzazione, con ogni probabilità, tornerà alle vecchie abitudini. Abbiamo visto casi di aziende dove c’erano leader profondamente convinti dei vantaggi dell’IA, che hanno lanciato numerose iniziative e sono riusciti a fare dell’IA il punto focale dell’organizzazione. Poi, però, quelli che sono venuti dopo di loro non avevano la stessa convinzione e l’IA ha perso di importanza.
8 SVILUPPARE CENTRI DI ECCELLENZA COL PERSONALE NECESSARIO
Nella maggior parte dei casi i responsabili dell’IA e dell’analitica dati continuano a dedicare una gran quantità di tempo agli sforzi per evangelizzare gli altri manager sull’importanza e lo scopo di questa tecnologia. I responsabili di tutte le unità aziendali devono garantire ai progetti di IA i fondi e il tempo di cui c’è bisogno e devono applicare l’IA nei loro processi lavorativi. È importante insegnare a questi manager come funziona l’IA, quando è appropriato usarla e cosa comporta portare avanti un progetto serio in questo ambito. Per la gran parte delle aziende, questo lavoro di aggiornamento e cambiamento delle competenze è ancora agli inizi, e non è necessario che ogni dipendente riceva una formazione sull’IA. Ma è evidente che per una parte dei dipendenti è necessario, e più sono meglio è. Tutte le aziende citate in questo articolo si sono rese conto che per riuscire nel loro intento avevano bisogno di tanti talenti e tanta formazione in IA, ingegneria dei dati e scienza dei dati.
Quando Piyush Gupta entrò in carica come amministratore delegato, nel 2009, la DBS Bank era all’ultimo posto tra le banche di Singapore per qualità del servizio clienti. Gupta investì cifre enormi in sperimentazioni sull’IA (circa 300 milioni di dollari l’anno negli ultimi anni) e diede ai diversi reparti e funzioni dell’azienda la flessibilità necessaria per assumere esperti di dati e capire cos’era possibile fare. Il responsabile delle risorse umane della banca, che non aveva nessuna competenza tecnica pregressa, creò un piccolo gruppo di lavoro per individuare e sperimentare applicazioni di IA, fra cui JIM (Job Intelligence Maestro), un modello in grado di prevedere il logoramento dei dipendenti e aiutare la banca a reclutare i lavoratori più qualificati. La DBS ha usato questo modello per assumere molti dei 1.000 fra esperti di dati e ingegneri dei dati che oggi lavorano nell’organizzazione.
Ora gli ingegneri alla DBS sono il doppio dei banchieri, dice Gupta, e lavorano su tecnologie emergenti come la blockchain e i token asset-backed, oltre che su progetti di IA. Anche la cultura della banca è enormemente migliorata. Per quattro anni, dal 2018 al 2021, la DBS è stata indicata come migliore banca a livello mondiale da Euromoney e la sua situazione patrimoniale e il suo merito di credito ormai sono fra i più floridi di tutta la regione Asia-Pacifico. Nel 2019 la Harvard Business Review ha inserito Gupta all’89ª posizione nella classifica dei migliori amministratori delegati del pianeta.
9 INVESTIRE IN MODO CONTINUATIVO
Scegliere di puntare tutto sull’IA non è una decisione che viene presa alla leggera, dato che produce effetti significativi sull’azienda per decenni, e per una grande impresa può finire per costare centinaia di milioni o addirittura miliardi di dollari. Tutte le aziende che hanno adottato l’IA con successo ci hanno detto che è questo l’ordine di grandezza degli esborsi da mettere in conto, se si vogliono perseguire obiettivi ambiziosi in tema di IA al livello dell’intera organizzazione. All’inizio l’idea di stanziare così tante risorse può fare paura ma, dopo aver visto i benefici che derivavano dai primi progetti, per le aziende oggetto delle nostre ricerche è stato molto più facile decidere di spendere soldi su dati, tecnologie e persone con orientamento sull’IA.
La CCC Intelligent Solutions, per esempio, ha speso e prevede di continuare a spendere più di 100 milioni di dollari l’anno su IA e dati. (Avvertenza: Tom è stato oratore retribuito per la CCC.) L’azienda era nata nel 1980 con il nome di Certified Collateral Corporation e originariamente il suo lavoro consisteva nel fornire alle compagnie assicurative informazioni per la valutazione degli automezzi. Se vi è capitato di avere un incidente automobilistico che ha richiesto lavori di riparazione importanti, probabilmente avete beneficiato dei dati, dell’ecosistema e del processo decisionale fondato sull’IA della CCC. Nei suoi oltre quarant’anni di attività, la CCC si è evoluta raccogliendo e gestendo sempre più dati, allacciando rapporti sempre più stretti con le varie componenti dell’industria delle assicurazioni auto e prendendo sempre più decisioni attraverso dati, analitica e, alla fine, anche l’IA. Negli ultimi 23 anni l’azienda è stata guidata da Githesh Ramamurthy, che prima ricopriva la carica di direttore tecnologico. La CCC gode di una crescita solida e ha ricavi annui che si stanno avvicinando ai 700 milioni di dollari.
I modelli di apprendimento automatico della CCC sono basati su dati storici relativi a denunce di sinistro per un valore di oltre 1.000 miliardi di dollari, miliardi di immagini storiche e altri dati su componentistica auto, officine di riparazioni, ferite da collisione e normative. La CCC raccoglie anche dati storici, attraverso telematica e sensori installati nei veicoli, per un totale di oltre 80 miliardi di chilometri. Fornisce dati, e sempre di più anche decisioni, a un vasto ecosistema di circa 300 compagnie assicurative, 26.000 officine, 3.500 fornitori di pezzi di ricambio e tutti i principali produttori di componentistica auto originale. L’obiettivo della CCC è collegare tutte queste organizzazioni in un ecosistema uniforme per elaborare in tempi rapidi le denunce di sinistro. Tutte queste transazioni avvengono nel cloud, dove la CCC ha spostato i suoi sistemi dal 2003. Mette in collegamento 30.000 aziende e 500.000 utenti individuali e lavora transazioni commerciali per un valore di 100 miliardi di dollari. Come potete immaginare, arrivare a questo punto ha richiesto tempo e denaro.
10 RICERCARE SEMPRE NUOVE FONTI DI DATI
Raccogliere dati di solito non è un problema per le grandi aziende, ma le strategie in materia di IA sono determinate in gran parte dai dati che si riesce a mettere insieme. Avere più dati è bene. Avere dati più accurati è meglio. Avere dati più accurati e strutturati che possano essere applicati immediatamente ai modelli di IA è l’ideale. Integrare i dati provenienti dai sistemi dei clienti forse è stata la cosa più complicata nel percorso seguito da Deloitte. Capital One ha sempre potuto contare su un’abbondanza di dati, ma aveva bisogno di un modo per archiviarli e utilizzarli all’interno di un’architettura informatica flessibile. La CCC ha cominciato ad accumulare dati già col modello d’impresa iniziale, e quindi si trovava nelle condizioni migliori per il passaggio a un modello fondato sull’IA: ma la transizione da impresa orientata ai dati a impresa orientata all’IA si è concretizzata quando ha imparato come usare un tesoro di dati enorme che fino a cinque anni prima non esisteva.
Quando si pensa ai dati, non bisogna dare per scontato che si tratti solo di parole e numeri. Per la CCC, le immagini dei veicoli rappresentano dati che possono essere applicati a diversi processi fondamentali. Aveva accumulato miliardi di immagini nel corso della sua storia, ma erano foto scattate da periti sul luogo dell’incidente o da meccanici nelle officine, usando macchine professionali dotate di speciali schede grafiche per immagazzinare e spedire le immagini.
Intorno al 2012 i dirigenti della CCC osservarono che le macchine fotografiche amatoriali diventavano sempre più avanzate e venivano incorporate negli smartphone, e immaginarono un futuro in cui i proprietari di veicoli danneggiati avrebbero potuto scattare da soli le foto per i preventivi degli assicuratori e inviarle direttamente dai loro telefoni. Senza più bisogno di fotografi e macchine fotografiche professionali, il processo sarebbe stato più rapido ed economico, pensarono i dirigenti della CCC. Decisero quindi di coinvolgere diversi professori di importanti università per studiarne le potenzialità. Contemporaneamente, iniziarono a leggere di un nuovo approccio all’analisi delle immagini, le reti neurali in apprendimento profondo, che avendo a disposizione una quantità di dati sufficiente per allenarsi avrebbero potuto prima o poi eguagliare o superare l’analisi umana.
La CCC mise insieme un pool di data scientist di talento, che scoprirono come sovrapporre le foto alla struttura di vari veicoli e come annotare o etichettare le immagini per addestrare il software. A metà del 2021 il sistema era pronto per essere applicato e uno dei primi clienti fu la USAA, una grande compagnia assicurativa americana. Il circolo virtuoso di aumento della quantità di dati, miglioramento dei modelli, aumento del giro d’affari e aumento della quantità di dati è il grande punto di forza della scelta della CCC di usare le immagini ricavate dagli smartphone. Nuovi dati continueranno ad affluire all’azienda e verranno usati per migliorare le previsioni dei preventivi e altre funzioni. Questo aiuterà i clienti della CCC a prendere decisioni migliori, che con ogni probabilità porteranno alla CCC più affari e più dati.
Noi siamo convinti che le aziende che adottano con più decisione l’IA, che riescono a integrarla meglio nella strategia e nell’attività operativa, saranno quelle che riusciranno a creare più valore. Sapere quello che stanno facendo le aziende migliori da questo punto di vista può aiutarne altre a valutare quanto questa tecnologia sia in grado di trasformare la loro attività. La vostra organizzazione può prendere le 10 azioni che abbiamo delineato in questo articolo per muoversi nella stessa direzione.
Noi siamo convinti anche che in futuro l’IA, applicata in modo strategico e in dosi massicce, sarà decisiva per il successo di quasi tutte le imprese. I dati stanno aumentando a ritmo sostenuto e questa è una tendenza destinata a proseguire. L’IA è un mezzo per ricavare un senso da grandi quantità di dati e garantire decisioni intelligenti al livello dell’intera organizzazione, e anche questa è una tendenza destinata a proseguire. L’intelligenza artificiale è qui per restare. Le aziende che la applicheranno con decisione conquisteranno una posizione dominante nel loro settore nei prossimi decenni.
Thomas H. Davenport è professore emerito di Tecnologie dell’informazione e Management presso il Babson College, visiting scholar presso l’Iniziativa del MIT sull’economia digitale e consulente senior presso il reparto IA della Deloitte. Carol Kauffman è dirigente, responsabile dell’offerta analitica e cognitiva e corresponsabile della practice per la crescita strategica dell’IA in Deloitte Consulting. Insieme, hanno scritto All In on AI: How Smart Companies Win Big with Artificial Intelligence (Harvard Business Review Press, 2023), da cui è stato ricavato questo articolo.
DELL’INNOVAZIONE NEL 2023
Le grandi prospettive della tecnologia
Uno sguardo agli sviluppi futuri da parte di un gruppo di esperti di McKinsey
di Aamer Baig, Jan Shelly Brown, William Forrest, Vinayak HV e Lareina Yee
Guardare al futuro è sempre un affare complicato. Se da un lato un nuovo inizio d’anno rappresenta un'opportunità per dare un nuovo sguardo alla propria strategia e pianificare dove concentrare le proprie energie, dall'altro può essere difficile distinguere le tendenze reali dal rumore di fondo. Questo è particolarmente vero quando si tratta di tecnologia. Pensate a questo periodo dell'anno scorso e all'entusiasmo per gli NFT, le criptovalute e il metaverso. Nell'autunno del 2022, i mercati degli NFT sono scesi del 90%, siamo entrati in un freddo inverno crittografico e il metaverso si presentava ancora più come un sogno che una realtà. Separare l'innovazione reale dall'aria fritta può fare la differenza tra una grande vittoria e un costoso flop.
Il 2023 sarà probabilmente un anno più sobrio nel settore tecnologico. Le incertezze geopolitiche ed economiche stanno costringendo a una maggiore cautela nella prossima fase di evoluzione tecnologica. I leader dovranno cercare modi per fare di più con meno, trovare valore laddove le innovazioni si sovrappongono e investire strategicamente in tecnologie che stanno raggiungendo un punto di svolta.
Un gruppo di esperti della practice tecnologica di McKinsey ha dato uno sguardo a ciò che potrebbe riservare il 2023 e propone alcune prospettive tecnologiche per l’anno da poco iniziato.
Occhio alle tendenze combinatorie
di Lareina Yee
Nel 2022 abbiamo identificato 14 tendenze tecnologiche che hanno il potenziale di cambiare il nostro modo di lavorare e di vivere. Tra queste, le tecnologie spaziali, le tecnologie pulite, l'intelligenza artificiale (IA) e le tecnologie di realtà immersiva. Per i dirigenti, la sfida non sarà solo quella di puntare sulle singole tendenze o di potenziare i talenti di ingegneria del software, ma di pensare a come tutte queste tecnologie possano creare nuove possibilità quando vengono utilizzate insieme - quelle che noi chiamiamo tendenze combinatorie.
In molti ambiti, dal consumatore all'impresa, in tutti i settori, le tendenze combinatorie stanno creando nuove ed entusiasmanti possibilità. Data la vasta gamma di combinazioni possibili, la creatività nel "mescolare gli ingredienti" diventa la chiave del successo. Consideriamo le tecnologie presenti in una nuova auto elettrica:
· cloud ed edge computing che alimentano le reti che collegano le auto;
· IA e ML (machine learning) applicate che consentono di prendere decisioni con logiche di guida autonome;
· tecnologie per l'energia pulita e il consumo sostenibile che compongono il nucleo dell'elettrificazione del veicolo grazie, tra l'altro, a nuovi materiali compositi leggeri e agli incrementi nella capacità delle batterie;
· tecnologie software di nuova generazione che consentono uno sviluppo più rapido delle funzionalità rivolte ai clienti e riducono il time-to-market;
· architetture fiduciarie che garantiscono una condivisione sicura dei dati.
Insieme, queste tecnologie combinano autonomia, connettività, intelligenza ed elettrificazione per consentire un nuovo futuro della mobilità terrestre.
Allo stesso modo, in campo medico nuovi trattamenti a livello di paziente, come quelli basati sul gruppo sanguigno o sul target cellulare, sono alimentati dai progressi della bio-ingegneria (ad esempio, nuove terapie basate sull'ingegneria tissutale), dalle tecnologie di realtà immersiva (ad esempio, terapie a distanza), dal web3 (ad esempio, tracciabilità, interoperabilità e permanenza delle registrazioni digitali), dall'intelligenza artificiale applicata e dal ML (ad esempio, migliore elaborazione delle immagini, avvisi sanitari predittivi) e dal cloud e dall'edge computing (ad esempio, maggiore accesso ai dati e capacità di elaborazione). L'impatto non è semplicemente additivo, ma moltiplicativo.
Nel 2023, ci aspettiamo di vedere alcuni di questi approcci combinatori iniziare ad aumentare la loro portata. Tra questi, l'approccio che ha portato ai vaccini mRNA - una combinazione di tecnologie bio-ingegneristiche come la genomica, l'intelligenza artificiale applicata e l'industrializzazione dell'apprendimento automatico - potrebbe essere applicato anche ad altre malattie.
Vediamo anche segnali che indicano che la combinazione di mobilità avanzata, connettività avanzata e IA applicata verrà applicata a problemi logistici meno sexy ma economicamente critici, come percorso per costruire la flessibilità e la resilienza delle catene di approvvigionamento.
Quando si pensa a come investire nelle tecnologie nel corso del prossimo anno, è bene cercare di pensare in modo olistico e considerare come queste possano lavorare insieme per sbloccare nuove opportunità.
Preparate il board alle tecnologie di punta
di Klemens Hjartar
Le tecnologie che cambiano le carte in tavola, come il 5G, l'intelligenza artificiale e il cloud, stanno raggiungendo dei punti di svolta per l'adozione di massa. La nostra ricerca mostra, ad esempio, che le aziende intendono spostare circa il 60% del loro patrimonio IT sul cloud entro il 2025. E più del 50% delle aziende dichiara di aver adottato l'intelligenza artificiale in almeno una funzione aziendale. Sebbene i board possano essere preoccupati per l'appiattimento o la riduzione degli investimenti nei budget IT, devono mantenere le energie concentrate sui rischi e sulle opportunità di questo grande cambiamento.
A tal fine, il CdA deve dare priorità al budget per l'aggiornamento delle fondamenta dell'IT che consentono velocità, sicurezza, resilienza e riutilizzabilità. Non si tratta di investimenti molto pesanti, ma l'automazione dei processi, gli investimenti nelle basi di dati, la pulizia dei debiti tecnologici e il continuo rinnovamento dell'architettura IT sono necessari affinché l'azienda abbia la possibilità di trarre il massimo vantaggio dalle nuove tecnologie in arrivo.
Il consiglio di amministrazione è nella posizione migliore di chiunque altro per sostenere questo approccio. Le priorità dell'IT sono troppo spesso determinate dalle singole unità o divisioni aziendali. Gli investimenti nelle basi tecnologiche - "l'IT per l'IT" - vanno a beneficio dell'intera azienda e richiedono quindi che il board, in collaborazione con il top management, guidi e indirizzi gli sforzi. Una buona regola è che il 15-20% del budget per le modifiche dell'IT venga destinato a questo lavoro di base.
I leader non possono pensare che il board arrivi da solo a questa visione. Affinché il consiglio sia in grado di impegnarsi a questo livello, il CIO e il CTO dovranno dialogare in modo più continuo e frequente con i singoli membri del consiglio sulle priorità e le esigenze tecnologiche.
Liberate il tempo di lavoro dei vostri ingegneri
di Aamer Baig
I licenziamenti nel settore tecnologico e le misure di contenimento della spesa in atto nella maggior parte delle aziende fanno sì che i leader tecnologici del 2023 debbano padroneggiare l'arte di fare di più con meno.
Occorre però evitare di cadere nella trappola di chiedere ai tecnici di fare semplicemente di più. Cercate invece di fargli fare meno cose: meno lavoro amministrativo, meno lavoro burocratico, meno lavoro manuale. Abbiamo scoperto che, in molte grandi organizzazioni, gli ingegneri dedicano appena il 50% del tempo allo sviluppo vero e proprio. Immaginate di migliorare questo dato di soli 10 punti percentuali per una grande azienda con decine o con migliaia di ingegneri. Ci sono enormi margini di produttività da guadagnare e i CIO possono sfruttarla diventando più scientifici e metodici nello sviluppo e nell'applicazione del mestiere di ingegnere. In particolare, possono compiere alcuni passi:
Riflettere meglio sulla composizione dei team e capire chi sono i top performer. Le prestazioni dei singoli ingegneri possono variare di 2-3 volte da un team all'altro.
Valutare quante distrazioni si possono eliminare dal piatto dei propri ingegneri. Anche soluzioni relativamente semplici, come ridurre le riunioni o rendere più produttive le "cerimonie agili", possono liberare molto tempo.
Puntare sull'automazione per eliminare la piaga delle attività manuali che appesantiscono gli ingegneri. L'automazione dei test o della conformità può avere un impatto enorme in termini di liberazione della loro capacità per fare ciò che più amano. Non si tratta solo di un problema di produttività, ma anche di talento. Se volete che la vostra azienda diventi attrattiva per i migliori ingegneri, dovete creare un ambiente di lavoro in cui questi possano fare ciò che sanno fare meglio.
Mettete la testa nelle nuvole
di Will Forrest
L'anno scorso molti CEO hanno cambiato la loro visione del cloud computing, passando essenzialmente da "Lo farò perché è quello che raccomanda il mio CIO" a "Voglio esserci in pieno". Questo punto mi è tornato alla mente di recente quando il CEO di una grande banca ha espresso frustrazione per la mancanza di progressi incrementali sul cloud. Tuttavia, invece di cancellare il programma, ha fissato un obiettivo molto più ambizioso e una tempistica accelerata per raggiungerlo.
In questo momento le aziende hanno un'opportunità imperdibile per aumentare le loro ambizioni sul cloud: mentre le aziende tecnologiche limitano l'organico ed eliminano molti programmi, i migliori talenti - non solo quelli che hanno ottenuto il 20% di risultati in meno - si stanno affacciando sul mercato del lavoro.
La domanda principale, quindi, è come le aziende intendono sfruttare queste due tendenze. La maggior parte di queste si sono limitate a spostare le applicazioni dai propri server ("lift and shift") o a creare ambienti di test e sviluppo per provare nuovi programmi. Ma ora è il momento di pensare in modo più ampio e intelligente.
Nel 2023 le aziende dovranno concentrarsi sulla creazione di solide fondamenta cloud che consentano loro di sfruttare i vantaggi più importanti offerti (ad esempio, la scalabilità delle applicazioni o l'aggiunta automatica di capacità per soddisfare gli aumenti della domanda). Ciò significa sviluppare i giusti schemi applicativi (basi di codice utili a più applicazioni o casi d'uso). Inoltre, è necessario mettere in atto solide capacità di economia del cloud, chiamate FinOps. Una recente ricerca di McKinsey ha dimostrato che le aziende tendono a non concentrarsi realmente sui costi del cloud fino a quando non superano i 100 milioni di dollari, il che rappresenta non solo un enorme spreco, ma anche un'opportunità perduta di generare valore. Le funzionalità FinOps sono in grado di monitorare e tracciare la spesa, determinare il costo unitario di scenari diversi di utilizzo del cloud e tradurre le esigenze dell'azienda in offerte cloud e accordi di prezzo ottimali.
Il cloud sta cambiando le politiche di sicurezza
di Jan Shelley Brown
Per anni la sicurezza è stata trattata come un ostacolo, anche se critico, che ha rallentato i progressi allo scopo di poter garantire migliori protocolli di sicurezza. Nel 2022, tuttavia, questa situazione ha iniziato a cambiare profondamente a causa dei grandi impegni assunti dalle aziende nel passaggio al cloud. Questo cambiamento ha creato un utile meccanismo che ha indotto i CIO e i CISO a ripensare il ruolo della sicurezza per migliorare la posizione di rischio dell'azienda. Questa tendenza è destinata ad accelerare nel prossimo anno, per alcuni importanti motivi.
In primo luogo, le aziende stanno cogliendo l'opportunità di automatizzare la sicurezza nel corso della migrazione delle applicazioni nel cloud. Questo perché le aziende stesse e i fornitori di servizi cloud stanno aumentando il loro livello di sicurezza. I fornitori hanno investito miliardi di dollari soprattutto in nuovi strumenti di sicurezza, ad esempio per analizzare automaticamente il codice caricato dagli sviluppatori alla ricerca di problemi di cybersecurity e rifiutare il codice con vulnerabilità, fornendo raccomandazioni chiare sulle correzioni da apportare. La maggior parte dei problemi di sicurezza sono il risultato di errori di configurazione del codice e del sistema, il che significa che l'automazione ridurrà radicalmente il numero di violazioni di questa. (In una grande banca, ad esempio, le violazioni sono diminuite del 70-80% dopo l'implementazione dell'automazione della sicurezza). C'è anche un altro vantaggio: questo sistema di feedback automatizzato consente agli sviluppatori di aumentare il ritmo di sviluppo fino a 10 volte rappresentando un’esperienza molto migliore.
In secondo luogo, con il passaggio al cloud di settori fortemente regolamentati, come il bancario e il farmaceutico, le stesse autorità di regolamentazione stanno ripensando i punti di pressione. Stanno già diventando più prescrittive per quanto riguarda gli standard di sicurezza e conformità per il cloud e stanno pensando anche ad altre questioni, come il rischio significativo di concentrazione. Cosa succederebbe se uno dei grandi progettisti di soluzioni per la sicurezza fallisse e con esso decine di banche? Anche se probabilmente nel 2023 non ci saranno risposte concrete a queste nuove questioni, possiamo aspettarci di vedere emergere i contorni di nuove politiche.
L'intelligenza artificiale decentralizzata sta cambiando il campo di gioco
di Vinayak HV
L'anno scorso ha fatto passi da gigante la "decentralizzazione" dell'intelligenza artificiale, ovvero la tendenza ad ampliare l'accesso a tecnologie avanzate di IA che tradizionalmente erano disponibili solo per chi aveva accesso a enormi set di dati proprietari e centralizzati. Prodotti come Stable Diffusion e ChatGPT hanno permesso a un numero più ampio di imprese e di individui di accedere e interagire con modelli di deep learning che altrimenti sarebbero stati riservati a istituzioni con set di dati molto grandi. Le implicazioni sono enormi, dal miglioramento della ricerca all'aumento della produttività degli sviluppatori.
La nostra analisi attraverso QuantumBlack, AI di McKinsey, indica che nel 2023 possiamo aspettarci di vedere i primi segnali di come questa decentralizzazione possa sconvolgere diversi settori, probabilmente a partire dalle aree dell'intrattenimento, dei giochi e dei media, dove tradizionalmente abbiamo visto le nuove tecnologie fare breccia.
La grande sfida e l'opportunità per le aziende nel 2023 sarà quella di trarre vantaggio da queste capacità di intelligenza artificiale decentralizzata e di capire cosa questa tecnologia potrebbe significare per i loro modelli di business. Per il CIO o il CTO, l'attenzione dovrà concentrarsi su come rielaborare le architetture per incorporare facilmente le interfacce di programmazione delle applicazioni (API), ad esempio da OpenAI o StabilityAI, per incorporare l'"intelligenza" in una più ampia gamma di applicazioni e processi. Questa capacità può, ad esempio, fornire suggerimenti automatici di codice, o librerie di codice da cui attingere, o generare automaticamente un codice per avviare lo sviluppo. L'obiettivo dovrebbe essere quello di integrare l'intelligenza artificiale in ogni parte dello stack tecnologico. Consentire questo significa allocare risorse sufficienti a scopo di sperimentazione: i migliori innovatori destinano l'1-5% del fatturato all'innovazione con un ritorno potenziale più che proporzionale. Difendere questo budget diventerà particolarmente importante quando le aziende avvertiranno la stretta sui bilanci, poiché la capacità di innovare efficacemente durante le fasi di crisi consente alle aziende di posizionarsi per crescere rapidamente quando l'economia tornerà a riprendersi.
Aamer Baig è senior partner di McKinsey e co-dirige la practice Technology a livello globale. Jan Shelly Brown è partner di McKinsey e leader nel settore Digitale e analitico; condirige la practice sulla sicurezza del cloud. William Forrest è senior partner di McKinsey, responsabile globale della practice Cloud di McKinsey. Vinayak HV è senior partner di McKinsey e dirige la practice Digital in Asia. Klemens Hjartar è senior partner di McKinsey e condirige la practice Technology a livello globale. Lareina Yee è senior partner dell'ufficio McKinsey della Bay Area. È presidente del McKinsey Global Technology Council e dirige la Tech Innovators Practice.
ChatGPT e l’intelligenza generativa
Sono ormai milioni le persone che si sono registrate al sito di OpenAI, organizzazione non a scopo di lucro fondata da Elon Musk e Sam Altman nel 2015, per provare quello che, a detta degli esperti, è considerato il miglior chatbot esistente sul pianeta: ChatGPT. Per via dei risultati stupefacenti, tra cui la produzione su richiesta di testi indistinguibili da quelli di studenti brillanti delle università americane, molto si è parlato dei risultati raggiunti dall’Intelligenza Artificiale (IA) negli ultimi anni, e dove potrà arrivare in futuro. Una recente analisi di McKinsey ne fa il punto (si veda www.mckinsey.com).
Sulla tecnologia IA sono fondate alcune delle macchine che usiamo tutti i giorni – come i chatbot aziendali, con cui possiamo aver bisogno di interagire, o dispositivi come Siri e Alexa – ma è una storia che vien da lontano. Infatti il machine learning, cioè lo sviluppo dell’intelligenza attraverso modelli che imparano da pattern di dati senza direzione umana, è presente sin dai tempi del matematico britannico Alan Turing, che sviluppò tecniche basiche limitate a usi in laboratori ultra-specializzati fino circa agli anni ’70, quando si svilupparono i primi computer abbastanza potenti. Fino a non molto tempo fa il machine learning era limitato a modelli predittivi: veniva osservato e classificato un pattern (es. concetto di cane affettuoso) che faceva sì di poter classificare tutte le foto simili sotto lo stesso concetto. L’IA generativa, invece, amplia le possibilità: non solo classifica l’esistente, ma crea su richiesta un prodotto rientrante nel pattern richiesto.
ChatGPT non è il primo modello di machine learning basato sul testo. OpenAI aveva già sviluppato GPT-3, mentre Google BERT, ma le recensioni per entrambi sono state alquanto diversificate: la grande potenza di dati elaborabili spesso non era coadiuvata da risposte altrettanto efficaci alle richieste. Ancora precedentemente a questi, i primi modelli di lavoro sui testi vedevano una forte componente umana: i ricercatori settavano degli input, come la definizione del concetto di positivo o negativo di un post su un social in base a determinate caratteristiche, e la macchina doveva imparare a categorizzare. Questo è un sistema definito supervised, in quanto è sempre l’uomo a dare alla macchina il là per la ricerca.
Queste nuove generazioni di chatbot si basano però sul self-supervised learning: al modello si dà una gran quantità di dati – addirittura, negli ultimi casi, l’intera produzione Internet – per farlo diventare abile a generare predizioni: come spiega nel suo articolo Cosimo Accoto, il bot non sa che Barack Obama ha vinto le elezioni del 2008 perché ne conosce l’esito, ma elaborando tutti i dati a disposizione sa che la risposta più coerente alla frase “chi ha vinto le elezioni del 2008?” è “Barack Obama” perché il nome è frequentemente associato nella sequenza di parole in questione. Gli output di questi modelli sono impressionanti: come detto all’inizio, possono produrre essay del livello di studenti universitari considerati i migliori nel loro campo di studio, o, in caso di IA generatrici di immagini, come DALL-E (curioso mash-up che genera assonanza tra il pittore Salvador Dalì e il famosissimo robot protagonista del lungometraggio della Pixar, Wall-E), riproduzioni molto simili a quelle dei più grandi artisti della storia umana.
Al netto di questa visione ottimistica, bisogna considerarne anche gli aspetti negativi: non sempre gli output prodotti dalle macchine sono accurati. Spesso ci imbattiamo in problemi di contesto, anche perché, quando si elaborano combinazioni tra tutti i dati presenti in Internet, bisogna superare molti bias razzisti e sessisti di parte delle produzioni scritte sul web. A volte ci facciamo ingannare dalla sicurezza e dalla velocità con cui il chatbot risponde, anche se genera risposte completamente false e, potendosi nutrire di bias, può essere utilizzato anche per cattivi scopi (es. produrre un testo molto simile a un articolo scientifico che evidenzi una correlazione tra vaccini e autismo, chiaramente inesistente).
Nonostante delle evidenti problematiche, più o meno trascurabili, è chiaro che l’Intelligenza Artificiale e il modo di governarla saranno alla base dei cambiamenti strutturali dei prossimi anni a tutti i livelli della nostra società.
Le sette promesse dell’intelligenza artificiale
Una sintetica rassegna delle prospettive di utilizzo per le aziende, ma anche per i singoli, nell’anno appena iniziato
Eugenio Zuccarelli
È stato un altro anno di crescita esponenziale per l'intelligenza artificiale (IA), sia per il business che per i consumatori. Dagli usi aziendali alle creazioni degli utenti, gli strumenti di intelligenza artificiale hanno raggiunto livelli mai visti prima in solo pochi mesi. Per promuovere ulteriormente l'adozione dell'IA c’è, però, ancora tanta strada da fare. Al momento, sono i data scientist gli esperti capaci di comprendere al meglio gli usi che si possono fare dell’IA: tuttavia, è necessario che i leader diventino la forza trainante di una spinta verso una maggiore adozione. Solo quando saranno i manager a guidare la carica potremo davvero adottare queste tecnologie nella vita di tutti i giorni e vederne i frutti nelle aziende. Nel 2023 assisteremo a un balzo in avanti dell'IA e comprenderà sette aree principali.
1 Nuove tendenze di regolamentazione
Nel 2023, le autorità e i Governi dovranno far fronte alla complessità e alla potenza dei sistemi di intelligenza artificiale. Negli anni, questi sono diventati sempre più potenti, raggiungendo ormai capacità di gran lunga superiori alle nostre. Di conseguenza, i Governi cercheranno di imporre controlli sugli strumenti di IA. Ciò sarà necessario per combatterne i potenziali usi negativi e garantire che gli utenti non finiscano per essere discriminati o svantaggiati a causa di algoritmi mal concepiti.
In questo momento, vari Paesi stanno adottando normative diverse. Alcune delle linee guida sull'IA nei Paesi europei stanno già iniziando a prendere forma e si differenziano significativamente dalle normative di altri Paesi.
Nel prossimo futuro, ogni Paese o regione avrà le proprie normative, allineandole ai propri principi fondamentali in materia di privacy, proprietà dei dati e cultura generale. Ad esempio, mentre possiamo aspettarci un'enfasi sulla protezione della privacy e della proprietà degli utenti in particolare in Europa e negli Stati Uniti, il governo cinese si muoverà certamente in altre direzioni. È dunque dubbio che l'intelligenza artificiale possa avanzare allo stesso modo in tutto il mondo.
2 Implicazioni etiche
Man mano che i sistemi di intelligenza artificiale diventano più potenti, anche le loro implicazioni diventano sempre più complesse. Ad esempio, gli algoritmi possono fare ormai previsioni accurate, dal rilevamento del cancro alla guida autonoma dei veicoli. Questi sistemi, tuttavia, sono validi solo quanto i dati utilizzati per addestrarli. Andando avanti, verrà applicato un controllo crescente alle caratteristiche più sensibili dei modelli, come età, sesso ed etnia, per garantire che l'algoritmo non discrimini. Poiché i dati utilizzati per la maggior parte dei modelli hanno bias intrinseci a causa di ragioni storiche, bisogna agire per fare in modo che tali discriminazioni non vengano introdotte nei sistemi di intelligenza artificiale quando si prendono decisioni.
3 Interpretabilità
Negli ultimi dieci anni, la priorità dei ricercatori è stata la creazione di modelli sempre più potenti e accurati. Abbiamo finalmente raggiunto un punto, però, in cui la loro precisione è estremamente elevata, permettendoci di avventurarci in alcune delle attività più complesse, come la guida autonoma. Tuttavia, ciò ha avuto un costo. I modelli sono diventati sempre più difficili da interpretare, come si vede con i sistemi di deep learning, un chiaro esempio di come la maggior parte degli algoritmi siano ora sistemi "black box", il che significa che nemmeno i loro creatori possono spiegare completamente perché questi hanno preso una decisione specifica.
Nel corso del prossimo anno, l'attenzione si sposterà verso la creazione di modelli più interpretabili. I sistemi di intelligenza artificiale ora possono eseguire calcoli e previsioni che in precedenza si potevano solo sognare. Ma, per garantire la loro adozione, dobbiamo promuovere l’interpretabilità. Per garantire che gli algoritmi ottengano la fiducia di dirigenti, amministratori delegati, medici o avvocati dobbiamo consentire loro di capire come questi sistemi agiscono, per scoprire se prendono decisioni mediante processi simili a quelli umani.
4 IA generativa per video e contenuti
L'IA generativa è un tipo di intelligenza artificiale che genera nuovi contenuti o dati simili, per stile o contenuto, a un dato input. Nel contesto della creazione di video e contenuti, l'IA generativa può essere utilizzata in vari modi. Possiamo vedere il forte interesse negli strumenti di intelligenza artificiale generativa come è successo con ChatGPT (Open AI), Lensa (Prisma Labs) e Stable Diffusion (open source). Modelli che stanno guadagnando un'immensa popolarità, con un numero così elevato di utenti che generano immagini da un testo o creano nuovi avatar da immagini esistenti che ChatGPT è stata in grado di accumularne 1 milione in soli cinque giorni. Non c'è da meravigliarsi che Open AI, creatore di ChatGPT, DALLE-2 e altri strumenti di intelligenza artificiale, stimi che il suo fatturato raggiungerà i 200 milioni di dollari nel 2023 e oltre 1 miliardo di dollari entro l'anno successivo, come indicato da Reuters.
Le potenziali applicazioni includono:
Generazione di contenuti video o audio: l'IA generativa viene utilizzata per creare video o clip audio dopo aver analizzato un set di dati di videoclip già esistenti. L'algoritmo può generare poi nuovi videoclip simili nello stile al set di dati originale. Possiamo immaginare varie applicazioni, per esempio in app come TikTok, Instagram Reels e altre.
Generazione di contenuti scritti: allo stesso modo, l'IA generativa viene sempre più utilizzata per aiutare a generare contenuti scritti come articoli, storie o post sui social media.
Generazione di grafici o immagini: stanno nascendo molte applicazioni nella creazione di nuove immagini, fornendo agli artisti un “nuovo tipo di pennello”.
5 IA distribuita
L’IA distribuita utilizza vari dispositivi come smartphone, computer o server per svolgere attività in modo più efficiente combinando potenza di calcolo, memoria e risorse di più dispositivi. Può essere implementata in diversi modi, a seconda delle esigenze e dei requisiti specifici del sistema, come, per esempio:
Distribuzione peer-to-peer (P2P): in questo approccio, più dispositivi o computer lavorano insieme come peer per eseguire un'attività. Ogni dispositivo o computer contribuisce con la propria potenza di elaborazione, memoria e risorse di archiviazione all'attività e i risultati vengono condivisi tra tutti questi.
Distribuzione client-server: in questa configurazione, un server centrale distribuisce le attività a più dispositivi client o computer che eseguono le attività e quindi inviano i risultati al server, che combina i risultati e gestisce eventuali elaborazioni aggiuntive secondo le necessità.
Distribuzione ibrida: questo approccio combina parti della distribuzione P2P e client-server. Più dispositivi o computer lavorano insieme come per eseguire un'attività, ma alcuni di essi possono fungere da server per coordinare la distribuzione delle attività o per gestirne altre che richiedono più potenza di elaborazione o spazio di archiviazione.
I sistemi di intelligenza artificiale distribuita sono utili per attività su larga scala in applicazioni come l'analisi dei dati, l'apprendimento automatico e alcune applicazioni in tempo reale.
6 Il 5G
L'intelligenza artificiale farà passi da gigante anche grazie all'adozione più diffusa del 5G nei prossimi 12-18 mesi. Grazie alla velocità di elaborazione dei dati e banda più elevata, sarà possibile generare una quantità ancora più grande di dati tramite smartphone e altri smart device. L’Internet-of-Things (IoT) diventerà una delle fonti principali di dati per l’IA, soprattutto nell’ambito della salute.
La migliore connettività della tecnologia 5G consentirà inoltre ai sistemi di intelligenza artificiale di comunicare in modo più fluido rispetto a prima. Ciò dovrebbe portare a una collaborazione più efficace tra i diversi sistemi. Si prevede, inoltre, che la tecnologia 5G aumenterà le capacità di edge computing, aiutando i sistemi di intelligenza artificiale ad avvicinarsi alla fonte dei dati, permettendo l’elaborazione vicino alla sorgente e quindi lo sblocco di problemi relativi alla privacy e alla condivisione dei dati.
Questo porterà a tassi di adozione ancora più elevati per le applicazioni basate sull'intelligenza artificiale all'interno delle aziende. Stiamo già vedendo, infatti, applicazioni 5G con IA soprattutto nel settore sanitario, manifatturiero e dei trasporti.
7 L’IA nelle aziende
L'intelligenza artificiale ha dimostrato di essere un ottimo strumento all'interno delle aziende per migliorare la produttività e ridurre i compiti più tediosi. Sono anche in arrivo benefici quali il miglioramento delle decisioni tramite i big data, la velocità e l'efficienza dei processi e la riduzione dei costi di manodopera e dell'errore umano. Possiamo aspettarci di vedere vari miglioramenti in molti settori, tra cui:
Servizio clienti: qui l’IA viene utilizzata soprattutto per sviluppare chatbot capaci di rispondere alle domande dei clienti e risolvere i problemi più frequenti in tempo reale. Se implementati correttamente, hanno contribuito a migliorare l'esperienza complessiva, liberando i rappresentanti umani in modo da poter gestire attività più complesse. Tuttavia, i chatbot devono ancora superare ostacoli significativi prima di diventare strumenti capaci di fornire un’esperienza soddisfacente agli utenti.
Marketing: gli algoritmi di IA possono anche aiutare ad analizzare i dati dei clienti in ambito marketing. Ciò consente alle aziende di fornire campagne di marketing personalizzate, contribuendo a incrementare le vendite e la soddisfazione del cliente.
Gestione della supply chain: l'IA viene spesso utilizzata per ottimizzare la logistica e le previsioni di domanda e offerta. Questo aiuta a supportare le aziende nei loro sforzi per gestire le scorte con alto grado di efficienza.
Manutenzione predittiva: analizzando con successo i dati dei macchinari si può prevedere quando è necessaria la prossima manutenzione, riducendo i tempi di inattività e migliorando l'efficienza operativa.
Rilevamento delle frodi: gli algoritmi analizzano i dati per identificare eventuali transazioni finanziarie che potrebbero risultare fraudolente.
Risorse umane: gli strumenti di intelligenza artificiale sono capaci di automatizzare anche attività più “umane” come lo screening dei curriculum e la pianificazione dei colloqui, consentendo ai professionisti delle risorse umane di concentrarsi su un lavoro più strategico. Tuttavia, come spesso accade, questa è un'area delicata in cui spesso subentrano problemi di bias che possono portare a discriminazioni e vanno ancora risolti.
Vendite: l'intelligenza artificiale viene infine utilizzata per analizzare i dati dei clienti e identificare potenziali “lead”, aiutando i team di vendita a stabilire le priorità e ad agire in modo più efficiente, collegandosi solo con i clienti che si prevede siano i più interessati e adattando i prodotti alle esigenze individuali.
Come si evince da questa rapida rassegna, l'intelligenza artificiale è in via di adozione su larga scala, sia da aziende che da utenti singoli. Nel 2023, questo progresso continuerà in modo ancora più accelerato, con molti detrattori e sostenitori della tecnologia, ma quello che è certo è che l’IA non potrà essere ignorata.
Eugenio Zuccarelli è un Data Science Leader basato a New York, dove guida un team di Data Scientist in CVS Health, l’azienda numero uno al mondo nell’ambito della salute e una Fortune 500. Eugenio è stato inserito nella classifica Forbes 30 Under 30, è stato TEDx Speaker e ha studiato tra MIT, Harvard e Imperial College. Il suo lavoro ha ottenuto vari riconoscimenti tra cui il premio John McCarthy.
Tecnologie al lavoro
Non senza problemi e contraddizioni, il lavoro in presenza si sposa sempre di più con l’attività da remoto, in formule variabili di lavoro ibrido. Per rendere efficace questa nuova realtà, occorrono però strumenti tecnologici sempre più sofisticati, come emerge da questa intervista con Microsoft Italia
Intervista a Luba Manolova
Il lavoro ibrido, cioè il mix di lavoro in presenza e lavoro da remoto, è ormai una realtà estremamente diffusa, in Italia come altrove. Varia naturalmente la proporzione tra le due forme di lavoro così come il grado di soddisfazione dei dipendenti. E varia la percezione dell’efficacia del lavoro ibrido e della produttività, valutata in modo diverso dal management e dai dipendenti. Le aziende sono, dunque, alla ricerca della formula più appropriata per gestire il lavoro ibrido e ottimizzarne i risultati assieme alla soddisfazione dei dipendenti. E Microsoft, nel suo ultimo Work Trend Index, affronta di petto il tema nella convinzione che, con un approccio ben studiato e gli strumenti tecnologici più avanzati, non esclusa l’intelligenza artificiale, questa formula sia alla portata di tutti: «Per colmare questo divario – si legge nel report - è necessario assumere un nuovo approccio che riconosca che il lavoro non è più solo un luogo, ma un’esperienza che deve trascendere il tempo e lo spazio, in modo che i dipendenti possano sentirsi coinvolti e connessi indipendentemente dal luogo in cui lavorano».
Per approfondire questa tematica, centrale per ogni azienda, Harvard Business Review Italia ha chiesto a Luba Manolova, Direttore della Divisione Microsoft 365 di Microsoft Italia, come valuta la situazione nel mondo del lavoro e le sue possibili evoluzioni, legate tanto ai grandi cambiamenti in atto quanto all’evoluzione futura, specie quando legata alle tecnologie.
Dopo tre anni di pandemia, il lavoro ibrido è ormai estremamente diffuso e molti lavoratori, per essere più presenti, chiedono all’azienda di dare forti motivi per il rientro. Occorre quindi definire meglio quali sono gli equilibri tra lavoro da remoto e lavoro in presenza, creando un’esperienza seamless che renda il lavoro una realtà fluida, efficace, produttiva e anche piacevole. Quale, a suo parere, la formula più appropriata?
Per ri-energizzare e ri-coinvolgere la forza lavoro dopo questo periodo complesso è necessario progettare un’employee experience efficace e significativa per i dipendenti, sia quando sono in azienda, offrendo valore nel lavoro in presenza, sia quando si collegano da remoto, facendo il possibile per massimizzare l’inclusione ed evitare burnout e stanchezza digitale. Per incentivare il rientro in ufficio, non basta però stabilire una policy: il 73% dei lavoratori ha infatti bisogno di essere motivato per tornare in presenza, e l’85% dei dipendenti dichiara che la ragione principale sia quella di ricostruire i legami tra colleghi. I manager devono quindi trovare il modo per far sì che ritrovarsi di persona diventi l’occasione per rafforzare il team-work.
Migliorare l’esperienza di lavoro da remoto, invece, significa definire e comunicare con chiarezza le priorità e gli obiettivi chiave per ogni dipendente. Nell’ultimo periodo, abbiamo assistito all'emergere della "giornata lavorativa a triplo picco": l’introduzione del lavoro da remoto ha visto infatti un aumento dell’attività intorno alle 10 di sera, un segnale da interpretare perché potrebbe significare che le persone sono attive tutto il tempo. Diventa quindi ancora più necessario capire come stabilire correttamente le priorità, comunicarle con chiarezza a tutto il team, e fare in modo che ognuno si concentri su ciò che è realmente importante per raggiungere i risultati aziendali desiderati.
Per questo è necessario mettere le persone al centro e disegnare delle esperienze semplici, fluide, user-friendly e amplificate dal digitale, che le aiutino a esprimere al meglio il loro potenziale, lavorando su una cultura e su un purpose comuni, su priorità e allineamento agli obiettivi, sulla connessione e costruzione di legami di qualità, sul coinvolgimento fattivo che valorizzi le diversità e garantisca maggiore inclusione di tutti, riconciliando produttività e benessere, restituendo valore e tempo e rendendo nello stesso tempo il modo di lavorare efficiente, efficace e piacevole.
Le indagini rivelano che l’87% dei dipendenti dichiara di essere produttivo al lavoro, mentre l’85% dei dirigenti afferma che il passaggio al lavoro ibrido ha reso difficile il controllo sulla produttività dei propri dipendenti. Questo ha portato alla “paranoia della produttività”, in cui i top manager non sono sicuri che i dipendenti siano produttivi e che stiano lavorando alla cosa giusta. Come colmare il gap tra queste due posizioni?
La transizione verso il lavoro ibrido che stiamo vivendo in questo momento ha in effetti evidenziato un disaccordo su ciò che costituisce la produttività. È impossibile mettere in dubbio che stiamo lavorando sempre di più: dall'inizio della pandemia abbiamo assistito a un aumento del 150% delle riunioni via Teams, del 32% delle chat e del 27% del lavoro fuori dagli orari standard. Eppure, i leader non sono convinti che le persone stiano lavorando sulle cose che realmente contano. Per questo motivo i manager devono imparare a valutare correttamente gli outcome prodotti, assumendosi il compito di definire chiaramente quali sono le priorità per i propri team e valutandone la performance di conseguenza. La definizione e la condivisione delle priorità si sono anche rivelate strettamente correlate alla soddisfazione sul lavoro e alla fidelizzazione dei dipendenti: abbiamo scoperto che le persone che si sentono allineate con i propri manager sugli obiettivi da raggiungere hanno quattro volte più probabilità di rimanere in un'azienda per i prossimi due anni e sette volte meno probabilità di cercare un nuovo lavoro.
Microsoft ha effettuato enormi investimenti per creare piattaforme digitali adatte al lavoro collaborativo e di recente ha introdotto nuovi strumenti potenziati dall’intelligenza artificiale. Come agiscono questi strumenti?
Oggi più che mai le aziende hanno bisogno di soluzioni che le aiutino ad adattarsi al cambiamento, migliorare la produttività e ridurre i costi. Come detto prima, nei primi due anni della pandemia abbiamo registrato un incremento del tempo settimanale dedicato alle riunioni; sia il ritmo di lavoro che la quantità di informazioni da vagliare sono cresciuti in modo esponenziale, così come le attività più amministrative e time consuming come prendere appunti, capire quali sono gli elementi più importanti da considerare, individuare gli spunti d’azione e le persone esperte in particolari materie o progetti.
Per questo motivo, Microsoft ha incorporato in prodotti come Microsoft Teams e Viva nuove funzionalità basate sull'intelligenza artificiale che permettono di incrementare la produttività individuale, di gruppo e organizzativa, e di cambiare radicalmente il nostro modo di lavorare.
Microsoft Teams Premium, grazie all’implementazione di strumenti innovativi come i Large Language Models alimentati da GPT-3.5 di OpenAI, ha reso le riunioni più intelligenti, personalizzate e sicure, sia che si tratti di meeting individuali o di grandi dimensioni, appuntamenti virtuali o webinar. E vi sono caratteristiche veramente innovative come la possibilità di generare note di riunione automaticamente, attività consigliate e punti salienti personalizzati, oltre a traduzioni in tempo reale da 40 lingue.
Le potenzialità dell’intelligenza artificiale vengono sfruttate anche in moduli come Viva Topics che permettono di cercare e identificare automaticamente argomenti nell’organizzazione, compilando una serie di informazioni utili su di essi, come una breve descrizione, l’elenco di persone che lavorano su un determinato argomento, e tutti i siti, file e pagine correlati. Questo consente una riduzione del 75% dei tempi di raccolta delle informazioni all’interno dell’organizzazione, facilitando la scoperta dei contenuti all’interno del flusso di lavoro e facendo in modo che i dipendenti trascorrano meno tempo alla ricerca delle conoscenze e risorse di cui hanno bisogno per svolgere il proprio lavoro al meglio.
Altro esempio di applicazione dell’AI per semplificare il lavoro è dato da Viva Sales, che alle figure commerciali offre un'esperienza di vendita più snella con funzionalità di conversational intelligence, come la generazione automatica di un riepilogo delle chiamate, il rilevamento delle domande, il calcolo dei KPI conversazionali e l'estrazione di elementi di azione. Viva Sales genera suggerimenti per contenuti e-mail per una grande varietà di scenari, utilizzando i dati specificamente rilevanti per il destinatario, come prezzi, promozioni e scadenze. Con il suggerimento automatico di contenuti personalizzabili, i venditori possono dedicare meno tempo alla composizione di e-mail e alla ricerca di dati e ottenere risultati di vendita più efficaci.
Un fattore di crescente importanza nel mondo digitale è quello relativo alla cybersecurity, per mantenere riservati i dati e i documenti dell’azienda. Come affrontate questo problema così cruciale?
Oggi più che mai, le persone hanno bisogno di sapere che le proprie conversazioni virtuali sono private e sicure. Per Microsoft, la privacy e la sicurezza non sono mai un problema secondario, e rafforzare la protezione end-to-end del digital e dei dati aziendali, pur rendendoli accessibili da ogni dispositivo, rimane una delle principali priorità. La tecnologia Microsoft mette le organizzazioni in condizione di affrontare efficacemente la sicurezza digitale da ogni punto di vista, con un approccio Zero Trust e un sistema di soluzioni integrate che permette di stare al passo con le minacce in continua evoluzione.
Il nostro approccio alla privacy e alla sicurezza si basa sull'impegno nel garantire la protezione completa dei dati. Le informazioni degli utenti non sono mai utilizzate a scopo pubblicitario e rimangono sempre anonime e in forma aggregata per qualsiasi tipo di analisi. Crittografiamo i dati in transito e a riposo, archiviandoli nella nostra rete sicura di data center e utilizzando il protocollo SRTP (Secure Real-time Transport Protocol) per la condivisione di video, audio e desktop. Adottiamo inoltre misure rigorose per garantire che l'accesso ai dati sia limitato e definiamo attentamente i requisiti per rispondere alle richieste di dati da parte del Governo.
Simulacri dell’umana intelligenza
La capacità di simulare la lingua, come nel caso di ChatGPT, non rappresenta solo un avanzamento tecnico nel processamento macchinico del linguaggio naturale. È piuttosto un passaggio di civiltà che scardinerà economie, imprese e mercati.
Cosimo Accoto
In un periodo in cui è sempre più intenso il dibattito sui sistemi basati sull’intelligenza artificiale, come ChatGPT e altri, affrontare la questione dei linguaggi sintetici, simulativi e inflattivi equivale a fronteggiare un passaggio di civiltà epocale e non episodico. Un passaggio molto commentato al momento, ma poco esplorato e compreso nella sua portata. Tecnicamente, il dispositivo che istanzia un “modello linguistico su larga scala” (LLM o large language model) è un assemblaggio socio-tecnico generativo fatto di abilità diverse connesse a molteplici architetture computazionali e risorse informative. La capacità di simulare il linguaggio nella sua forma testuale, di aggiustarlo in modalità contestuale, di archiviare conoscenza e informazione, di eseguire istruzioni e compiti linguistici, di sintetizzare temi con affinamento scalare, di originare sequenze di argomentazioni e tentativi di ragionamento per step, di articolare risposte e costruire dialoghi sono il frutto di un’orchestrazione complessa fatta di programmi software, dati e archivi informativi, algoritmi di apprendimento profondo anche a rinforzo umano, modelli matematico-stocastici della lingua. Si tratta, dunque, di un insieme di tecnicalità e operatività ingegneristico-computazionali intrecciate (training on code, transformers, pre-training modeling, instruction tuning, words tokenization, reinforcement learning con human feedback…) in grado di sequenziare statisticamente il linguaggio naturale umano. Il tutto, in molti dicono, per bilanciare e contrastare l’hype del momento - senza relazione di senso col reale. Vale a dire, cioè, senza che quel linguaggio macchinico sappia in realtà nulla del mondo e senza che abbia una qualche comprensione dei suoi significati. L’espressione usata, “pappagalli stocastici”, evoca questa scrittura simulativa verosimile, ma insensata.
DENTRO LE MECCANICHE DI UN LLM
Ma cos’è, in ultima istanza, un large language model? Possiamo dire che un LLM è un sequenziatore linguistico-probabilistico a bassa crossentropicità. Dunque, ridotto ai suoi minimi termini, è un modello matematico della distribuzione di probabilità delle parole di una lingua scritta che si sforza di minimizzare la crossentropia (cioè lo scarto tra due potenziali distribuzioni di frequenza) massimizzando, di conseguenza, la sua capacità performativa come text predictor. Come ha raccontato Binder (Language and the Rise of Algorithm, 2022), questo approccio è il frutto di un lungo percorso nella storia moderna del processamento del linguaggio naturale (NLP) che, partendo a inizio Novecento dalle catene di Markov applicate alla letteratura (sequenza di vocali e consonanti di un romanzo) e passando per i lavori di Shannon e Weaver a metà anni Cinquanta sulla misura dell’entropia e la distribuzione delle probabilità (n-grams e sequenza probabilistica di parole nella lingua), arriva a inizio anni Duemila con Bengio e colleghi all’applicazione delle reti neurali artificiali per il processamento del linguaggio naturale (neural NLP). Anche con importanti sviluppi recenti come l’impiego dei trasformatori (transformers) in grado di incorporare nell’analisi probabilistica del linguaggio la dimensione contestuale delle parole nelle frasi.
È molto importante, però, comprendere bene tecnicamente qual è il lavoro tecnico-operativo - invisibile ai più - dei modelli linguistici computazionali. E capire la loro relazione e differenza con il linguaggio naturale umano. Riprendendo le avvertenze di Shanahan (Talking About Large Language Models, 2022), quando si interroga un sistema di questo tipo chiedendo di completare una frase (ad esempio, “l’autore della Divina Commedia è …”) e ottenendo una determinata risposta (“…Dante”), in questo dialogo noi e la macchina intendiamo due cose molto diverse. Noi vogliamo sapere chi ha scritto nella realtà storica il famoso poema. La macchina, invece, intende “quale parola è statisticamente più probabile che segua nella sequenza della frase “l’autore della Divina Commedia è…”? Dentro gli archivi informativi con cui è alimentato il modello troverà che “Dante” è la parola più frequentemente associata nella sequenza di parole della frase in questione. Nel caso di specie e più filosoficamente, dunque, con la sua interrogazione, l’umano intende dire e chiede di conoscere un elemento di concreta “verità storica” del mondo. Dal suo canto la macchina, invece, intende processare e può solo restituire un risultato di pura “probabilità linguistica” del testo.
LINGUA, PENSIERO, MENTE E MONDO
Tuttavia, e qui è il punto critico, l’umano - preso tra antropomorfismi e sociomorfismi - immagina che la macchina comprenda la domanda e che arrivi alla risposta nello stesso modo in cui fa lui. Dunque, per non rimanere vittime di hype (ma anche per non perdere delle opportunità di business), occorre distinguere - come mostra un lungo studio sulla “dissociazione tra linguaggio e pensiero nei LLM” (Mahowald, Ivanova e altri, 2023) - le competenze linguistiche “formali” dalle competenze linguistiche “funzionali”. Le prime (quelle formali) si riferiscono alla capacità del processamento macchinico del linguaggio naturale in grado di riconoscere la struttura sintattica di una lingua, le sue regole grammaticali, le sue regolarità nella costruzione delle frasi. E, quindi, poi di riprodurla e simularla probabilisticamente. Le seconde (quelle funzionali) riguardano le capacità proprie del cervello umano di costruire un linguaggio che è in relazione col mondo e che ci consenta cognitivamente di agire in esso impiegando la percezione e i sensi, la comunicazione e gli altri, il ragionamento e le interazioni.
I successi raggiunti dai LLM nelle competenze formali non devono trarci in inganno rispetto alle seconde che, ad oggi, rimangono lontane da quelle umane. Da qui anche la necessità e l’importanza di nuove pratiche disciplinari come il prompt engineering e design. Interrogazioni, istruzioni, dati, esempi sono di norma gli input impiegati per sollecitare la macchina a produrre, attraverso un modello matematico ottimizzato su token linguistici, l’output desiderato (una conversazione, un testo, un riassunto …). Per una buona produzione dell’output, l’ingegneristica dello spunto (prompt engineering) necessita di avere una qualche comprensione del meccanismo/modello impiegato dalla macchina, oltre che una qualche conoscenza del dominio disciplinare di riferimento.
In ogni caso, ad oggi potenzialità e meraviglie, ma anche limitazioni, allucinazioni, inventive, errori lessicali, sintattici, semantici e retorici di ChatGPT et similia sono conseguenti a questa peculiare modalità operativa di processamento computazionale, probabilistico e simulativo, della lingua. In prospettiva, si stanno però già prefigurando e testando integrazioni di capacità elaborative neuro-simboliche e funzionali nei modelli linguistici a larga scala per ovviare alle attuali, evidenti limitazioni.
SOLO PAPPAGALLI STOCASTICI?
In questo frangente, qualcuno velocemente viene riproponendo il ban platonico delle arti imitative (“della cosa imitata l’imitatore non sa nulla che valga nulla” scriveva Platone nella Repubblica) nella sua versione contemporanea degli stochastic parrot, dei pappagalli probabilistici, come anticipavo. Altri ingenuamente si stupiscono delle nuove meraviglie tecnologiche simulacrali e del grado di verosimiglianza raggiunto e via via sempre più affinato a superamento di soglie un tempo immaginate invalicabili (e tra l’altro siamo in attesa, dopo GPT-3, di GPT-4 di molte magnitudini superiore). Di volta in volta, l’umano fronteggia questa presa di parola della macchina o con palese sufficienza (non c’è comprensione del senso) o con facile entusiasmo (una svolta nella generazione del linguaggio). Sono tuttavia visioni filosofiche deboli del momento e del passaggio strategico che viviamo perché cercano di depotenziare o banalizzare l’impatto culturale spaesante dell’arrivo dei linguaggi sintetici. Che non riguarda la questione di assegnare e riconoscere o meno intelligenza, coscienza, senzienza alle macchine. Piuttosto e in prospettiva, l’arrivo del “linguaggio sintetico” (come scrivono Bratton e Aguera Y Arcas, The Model is The Message) scardina e decostruisce (Gunkel) in profondità gli apparati, i domini e i dispositivi istituzionali del discorso, della parola e del parlante così come della scrittura e dell’autorialità.
La presa di parola della macchina sarà un’operazione più profonda e spaesante nel lungo periodo (e disruptive su industrie e mercati: dall’educazione all’intrattenimento, dal giornalismo al marketing). Anche le big tech, Google in primis, sono in allarme rosso. Più culturalmente e strategicamente, dobbiamo però marcare meglio questa discontinuità. In primis, il fatto che non ci sia “comprensione di senso” (punto da approfondire e da non dare per già facilmente sciolto) non significa, ad esempio, che non ci sia comunque produzione/circolazione di senso e di impatto per l’umano coinvolto nell’assemblaggio sociotecnico. Il senso circola sempre in qualche forma attraverso l’intelligenza, o non intelligenza, dell’umano che leggerà (anche inconsapevole di ingannarsi sul processo simulativo in atto). La cosiddetta “intelligenza artificiale” non è pensabile in sé e per sé (come mero artefatto tecnico) come spessissimo viene intesa, ma sempre con altri e per altri (come assemblaggio sociale). E, qui, antropomorfismi e sociomorfismi sono sempre all’opera con i loro pregi (empatia e efficienza) e i loro rischi (intrasparenza e manipolazione).
MACCHINE CHE PRENDONO LA PAROLA
D’altro canto, dire che è una svolta nella produzione del linguaggio lascia inesplorata la natura di questa operazione senza precedenti di “strutturalismo sperimentale”, come l’ha definita Rees nel suo Non-Human Words (2022). Quindi, sostenere a proposito dei LLM che si tratta di meri pappagalli stocastici significa non comprendere la portata culturale epocale di questo passaggio alla “parola non-umana”. La prerogativa storica della parola (simulata) ai soli umani mostra segni di cedimento. Passaggio che la teoria letteraria e la filosofia continentale avevano anticipato. Ad esempio, tutta la riflessione sulla “morte dell’autore” con Barthes (La mort de l’auteur) e Foucault (Qu’est-ce qu’un auteur?) come ci ha ricordato il filosofo Gunkel in una sua serie di post su Twitter a fine 2022. In questa prospettiva, precisa Gunkel, la parola/scrittura della macchina rappresenterebbe la fine dell’autorialità (per come l’abbiamo conosciuta, trasformata e operazionalizzata storicamente finora) e l’inizio di un nuovo percorso/discorso della parola, del linguaggio, della scrittura, della proprietà intellettuale e così via. Con tutte le sue opportunità e tutte le sue inquietudini, vulnerabilità e rischi. Dunque, continua Gunkel, non sarebbe la fine della scrittura, ma la fine dell’autore (nella sua forma storica attuale).
Ma, insieme all’autorialità che entra in questione e in crisi, siamo anche all’avvio più complessivamente di una nuova era inflazionaria della parola (e dei media più in generale). Che, come tutti i passaggi mediali inflattivi, scardina per un verso e istituzionalizza per l’altro nuovi ordini del discorso, nuovi regimi di verità e falsità, nuove logiche e dinamiche di economia politica e di potere. Come ha scritto Jennifer Petersen nel suo How Machines Came to Speak (2022) «…molti impieghi dei bot e dell'apprendimento automatico ristrutturano il discorso, riorganizzando le posizioni di chi parla, del testo e del pubblico – e, così facendo, cambiano ciò che significa essere un soggetto parlante ... il momento attuale potrebbe essere un'occasione per ripensare alcuni dei nostri assunti fondamentali sul discorso». La parola è potere. Come direbbe Foucault, in che forme sorprendenti e arrischiate verremo allora parlati dalla nuova lingua sintetica?
IMPRESE E NUOVE UNCANNY VALLEY
Quel che è certo è che con i linguaggi sintetici non siamo di fronte solo a nuovi problemi tecnologici, ma anche e soprattutto a nuove o rinnovate provocazioni culturali e sorprendenti paradossi (tra il dentro e il fuori del testo, tra il linguaggio e la sua relazione col mondo, tra la presa di parola della macchina e l’esperienza dell’umano che viene parlato). E, se i problemi tecnici richiedono una soluzione ingegneristica, le provocazioni intellettuali ci sollecitano piuttosto all'innovazione culturale. Di questa le imprese hanno un urgente bisogno per attraversare, abitare e prosperare in queste nuove uncanny valley.
Cosimo Accoto è filosofo tech, research affiliate e fellow (MIT Boston), adjunct professor (UNIMORE). È autore di un’originale trilogia filosofica sulla civiltà digitale (Il mondo in sintesi, Il mondo ex machina, Il mondo dato). Startup advisor e instructor, Accoto ha pubblicato su Economia & Management (SDA Bocconi), Harvard Business Review Italia, Il Sole 24Ore, Sistemi & Impresa, Aspenia, MIT Sloan Management Review Italia.
SOSTENIBILITÀ
L’intelligenza artificiale a supporto degli obiettivi ESG
Uno strumento potente che può contribuire a indirizzare gli investimenti verso le aziende migliori e a conciliare profittabilità e sostenibilità
Terence Tse, Mark Esposito e Danny Goh
È forse comprensibile il motivo per cui alcuni sono scettici nei confronti dell'intelligenza artificiale (IA). In primo luogo, i media e i rapporti di ricerca illustrano spesso come le macchine minacciano di prendere il posto del nostro lavoro, con la conseguente eliminazione di molte posizioni oggi occupate dagli umani. In secondo luogo, in molti casi l'IA rimane un oggetto misterioso. In genere, nei processi di apprendimento automatico (machine learning) possiamo vedere solo gli input e gli output, ma non sappiamo come questi input vengano combinati in funzione dei risultati: in altre parole, le macchine trasformano gli input in output in modi per noi del tutto inosservabili.
L'utilizzazione di algoritmi non conoscibili in vari aspetti della vita pubblica, come la giustizia, avrà profonde ramificazioni sociali ed etiche. Lo sviluppo delle tecnologie di apprendimento automatico procede a pieno ritmo, tuttavia i metodi per monitorarle e comprenderne il funzionamento sono in ritardo.
In terzo luogo, sembra che alcune aziende, soprattutto i giganti della tecnologia, abbiano puntato sull'IA per aumentare la loro profittabilità, spesso a spese dell'interesse pubblico. Ad esempio, Google sta probabilmente estraendo una quantità impressionante di dati sulla vita privata degli utenti, utilizzandoli per ottenere previsioni accurate sul futuro comportamento umano, che possono poi essere vendute a clienti commerciali. Un altro esempio, forse più noto, è il modo in cui Facebook (ora Meta) ha impiegato l'intelligenza artificiale attraverso Cambridge Analytica per influenzare gli elettori, interferendo così con i processi democratici.
Tecnologia a fin di bene
Tuttavia, non dobbiamo dimenticare che l'IA può anche creare benefici per tutti. Si parla spesso di come le aziende possono utilizzare le tecnologie non solo per fare del bene, ma anche per fare bene. Ad esempio, sono sempre più frequenti le discussioni sull'utilizzo dell'IA per contribuire al raggiungimento degli obiettivi di economia circolare. Tuttavia, i progressi nel perseguimento della sostenibilità guidati dalla tecnologia rimangono lenti e uno dei motivi è che alle aziende - e ai loro investitori - manca un incentivo economico a effettuare investimenti importanti al fine di ottenere benefici sociali e ambientali. Questo spiega anche perché, nonostante anni di discussioni sull'importanza della cosiddetta "tripla linea di fondo" - la necessità di prendersi cura non solo del profitto, ma anche delle persone e del pianeta - non è quasi mai diventata una pratica corrente tra le imprese. Anche se va riconosciuto che c'è ormai un numero crescente di investitori consapevoli dal punto di vista sociale e ambientale.
Da questa prospettiva, due lezioni sono chiare. La prima è che se gli investitori non ottengono un rendimento soddisfacente, sarà difficile convincere le imprese a orientarsi verso obiettivi legati alle persone e al pianeta. La seconda è che gli investitori devono disporre di informazioni tempestive e accurate per prendere decisioni informate: con un numero crescente di investitori disposti a impiegare il proprio capitale in progetti legati a nuove idee nel campo della sostenibilità - ambientale, sociale e di governance (ESG) - quest'ultimo problema deve essere mitigato, se non risolto. A questo proposito, l'IA rappresenta uno strumento gradito e potenzialmente alquanto vantaggioso per contribuire alla realizzazione degli obiettivi ESG.
Sfide per gli investimenti sociali
Gli investimenti in ESG sono diventati rapidamente un'importante area di interesse. Uno studio sottolinea che gli investimenti sostenibili sono stati pari a circa 30.000 miliardi di dollari nel 2018, con un aumento del 34% rispetto al 2016. In effetti, gli investitori (e le nostre società in generale) sono sempre più interessati a capire se e con quali mezzi le imprese sono conformi alle norme ESG. Allo stesso tempo, i consigli di amministrazione e i manager sono diventati consapevoli che l'ESG è fondamentale per la sopravvivenza a lungo termine delle loro aziende. Non sorprende quindi che, secondo le stime, ben il 90% degli investitori a livello globale abbia già adottato, o abbia in programma di sviluppare, specifiche politiche di investimento ESG. Per guidare la selezione di tali investimenti, negli ultimi anni sono proliferati diversi servizi di rating e indici basati sui criteri ESG, come MSCI, Bloomberg e Sustainalytics. Purtroppo, questo tipo di investimenti è spesso più facile a dirsi che a farsi. Gli investitori devono, infatti, affrontare almeno due sfide: gli errori delle società di rating e le emissioni finanziate.
Gli errori delle società di rating. Consideriamo l'esempio dell'azienda britannica Boohoo. Nel giugno 2020, l’azienda (all’avanguardia nel settore della vendita al dettaglio ultra-fast-fashion) ha annunciato un bonus ai dirigenti di 150 milioni di sterline. Nel 2019, nella sua relazione aziendale, il rivenditore aveva sottolineato il proprio approccio di “tolleranza zero sulla schiavitù moderna"; eppure, poco dopo, si è scoperto che l'azienda si riforniva da una fabbrica di Leicester in cui i lavoratori venivano pagati appena 3,50 sterline all'ora (rispetto al National Living Wage di 8,72 sterline); altrettanto grave, poi, era il fatto che ai lavoratori non venisse fornito un adeguato equipaggiamento protettivo contro il Covid-19. Eppure, nonostante queste pratiche scorrette, Boohoo ha ricevuto da MSCI una doppia A nel rating ESG – il secondo punteggio più alto - e ha ottenuto un rating di gran lunga superiore alla media del settore per quanto riguarda gli standard di lavoro della supply chain nella classifica ESG. MSCI, tuttavia, non è stata l'unica a dare al rivenditore di moda un punteggio elevato. Un'analisi di altri nove diversi rating ha collocato Boohoo nel 25° percentile più alto tra oltre 19.000 aziende considerate a livello mondiale.
Un altro esempio è Wirecard, l'elaboratore di pagamenti e fornitore di servizi finanziari tedesco caduto in disgrazia. L'azienda ha presentato istanza di fallimento nel giugno 2020, ma le notizie sulle sue discutibili pratiche commerciali erano emerse fin dal 2015. In effetti, fino al crollo definitivo, si erano susseguite una serie di indagini (giornalistiche) che avevano portato alla luce crescenti prove di illeciti, eppure, per tutto questo tempo, Wirecard aveva ricevuto valutazioni di livello medio da diverse agenzie di rating ESG.
Come hanno fatto le società di rating a sbagliare così tanto? La risposta è: asimmetria informativa. Sembra che tutte le parti coinvolte nel processo di rating debbano affrontare sfide diverse per ottenere informazioni di qualità. Per cominciare, le società che elaborano rating e indici utilizzano metodologie e dati proprietari per analizzare le aziende. Il risultato dell'utilizzo di definizioni, misurazioni e ponderazioni ESG differenti per i vari indicatori spesso porta a conclusioni e verdetti che possono essere nettamente diversi da un indice all'altro. Uno studio recente ha rilevato che in un set di dati di cinque agenzie di rating ESG, le correlazioni tra i punteggi di 823 aziende erano in media solo dello 0,61. Ciò suggerisce effettivamente che, sebbene diversi produttori di rating valutino la stessa azienda, i loro giudizi sono di norma molto differenziati, come se stessero valutando aziende diverse. In effetti, queste società di rating si basano per lo più sulle informazioni fornite dalle società valutate, il che consente di fatto a queste ultime di fornire solo dati favorevoli, creando potenzialmente enormi distorsioni.
Gli investitori spesso non hanno le risorse per effettuare valutazioni ESG approfondite per ogni potenziale azienda su cui investire. Di certo non hanno il tempo di esaminare, confrontare e riconciliare le differenze di opinioni e valutazioni dei diversi fornitori di rating. Senza una standardizzazione dei criteri di valutazione, è difficile per gli investitori confrontare gli indici creati dalle diverse agenzie. Inoltre, il fatto che l'interpretazione dei dati da parte delle società di rating possa essere molto diversa spesso lascia gli investitori in difficoltà nel determinare quale rating o punteggio possa soddisfare i propri criteri o obiettivi di investimento. Un altro problema fondamentale che gli investitori devono affrontare è che si affidano ai produttori di rating e di indici per acquisire le informazioni e le notizie più recenti e per incorporarle nelle loro valutazioni.
I problemi non sono, peraltro, limitati agli investitori o alle agenzie di rating. Anche le aziende alla ricerca di capitali ne risentono. Ad esempio, poiché i criteri e le dimensioni del rating sono determinati dai produttori dell'indice, le società che desiderano essere considerate conformi alle norme ESG si trovano spesso a chiedersi come migliorare il proprio. Inoltre, non è certo che gli investitori dispongano di informazioni sufficienti per riconoscere altri fattori positivi - e negativi - relativi ai loro concorrenti, non considerati nei rating.
Nel complesso, questi problemi emergono dalla mancanza di chiarezza, coerenza e trasparenza dei rating ESG, nonché dall'asimmetria e dalla carenza di informazioni.
Emissioni finanziate. Le emissioni finanziate sono generate come risultato della prestazione di servizi finanziari, investimenti e prestiti da parte di investitori e società che forniscono tali servizi. Esse rientrano nell'ambito 3 del Protocollo sui gas serra. Un recente rapporto ha rilevato che le 18 maggiori banche e gestori patrimoniali statunitensi sono responsabili del finanziamento dell'equivalente di 1,97 miliardi di tonnellate di CO₂ nel 2020. Se il settore finanziario statunitense fosse un Paese, diventerebbe il quinto più grande generatore di emissioni al mondo (Sierra Club, 2021). Analogamente, si stima che il settore dei servizi finanziari del Regno Unito abbia generato 805 milioni di tonnellate di CO₂ attraverso i finanziamenti nel 2019. Un altro rapporto sottolinea che le emissioni finanziate sono 700 volte superiori a quelle generate direttamente da un istituto finanziario. Il problema non è solo l'entità dell'inquinamento: una questione più ampia, infatti, è che le emissioni finanziate sono difficili da tracciare e monitorare. Le aziende devono affrontare sfide enormi per raccogliere ed elaborare i dati su base continua, nonché per trarne spunti di riflessione e renderli digeribili per gli utenti finali.
Intelligenza artificiale per l'ESG
Un potenziale mezzo per mitigare questi problemi è quello di raccogliere rapidamente informazioni qualitative per rafforzare i dati quantitativi già in uso. Dati qualitativi aggiornati hanno la capacità non solo di aiutare gli investitori a essere molto più informati, ma possono anche essere utilizzati per stabilire input chiave utilizzabili come base per formare standard minimi comuni. Poiché le macchine sono molto più capaci degli esseri umani di raccogliere e gestire informazioni qualitative su larga scala, in modo economico e rapido, la fornitura di tali informazioni migliorerà a sua volta la completezza e la tempestività dei dati, e quindi la qualità complessiva dei dati ESG a disposizione degli investitori.
In genere, gli strumenti ESG alimentati dall'intelligenza artificiale seguono tre fasi per produrre l'output desiderato e ricco di informazioni: raccogliere, organizzare e analizzare.
Raccolta. Questa fase prevede l'analisi dei dati ESG. Il processo inizia utilizzando l'intelligenza artificiale per cercare ed estrarre i dati aziendali da una serie di fonti tra cui le notizie, i messaggi e le menzioni sui social media, le analisi degli esperti, i rating e i rapporti ESG di terze parti. Farlo manualmente sarebbe uno sforzo dispendioso in termini di tempo, manodopera e costi. Anche se fosse possibile, un approccio manuale di ricerca e importazione dati in tempo reale su base continuativa sarebbe impossibile. Infatti, poiché l'universo dei dati ESG continua ad espandersi in modo esponenziale, l'IA rappresenta l'unico mezzo fattibile per raccogliere e analizzare i dati.
Organizzazione. Dopo la raccolta dei dati si passa allo screening e all'inserimento dei dati estratti nel database. Tradizionalmente, ciò comporta che gli esseri umani debbano prima "catturare" le informazioni e poi inserire manualmente i dati, un processo impegnativo sia in termini di tempo che di sforzi. Le tecnologie odierne ci permettono di saltare in gran parte questo processo. Le macchine sono in grado di convertire un'enorme quantità di dati non strutturati in dati strutturati facilmente utilizzabili, quasi senza errori e in tempi rapidi. Ma la cosa più importante è che l'IA può raccogliere, organizzare ed elaborare dati che seguono i criteri ESG stabiliti dagli utenti e dagli investitori, che possono variare notevolmente dato che i diversi investitori hanno obiettivi di investimento, filosofie, propensione al rischio e criteri di valutazione molto diversi. L'intelligenza artificiale consente loro di raccogliere dati personalizzati necessari per rispondere alle specifiche e ai requisiti dei diversi schemi d’investimento: in questo modo, gli investitori sono in grado di produrre e aggiornare continuamente le proprie valutazioni.
Analisi. La fase finale consiste nello scoprire e ricavare informazioni preziose dall'insieme di dati strutturati. Ciò comporta lo sviluppo di varie tecniche di elaborazione del linguaggio naturale (NLP), come quelle relative alle classificazioni e alle tassonomie. Si avvale anche di analisi che catturano i fattori di opinione, contestuali e semantici incorporati nei dati raccolti. Questo è un aspetto essenziale dell'utilizzo dell'IA per l'ESG. Prendiamo, ad esempio, un articolo su un'azienda che contenga parole come "lavoro minorile" o "schiavitù". Queste due parole hanno certamente una connotazione negativa: tuttavia molti altri articoli potrebbero essere complessivamente sfavorevoli dal punto di vista di opinione e semantico anche senza l'uso di parole così forti. L'unico modo per discernere il tono delle informazioni fornite è far leggere agli esseri umani ogni articolo e poi valutare se è complessivamente positivo o negativo nei confronti di un'azienda. Sebbene le attuali tecnologie di intelligenza artificiale non siano ancora in grado di sostituire l'uomo in questo ruolo, stanno progredendo rapidamente per diventare sempre più brave a rilevare le informazioni contestuali incorporate.
L'analisi dei dati è destinata a diventare ancora più facile, veloce e completa grazie a una recente innovazione nell'uso delle tecnologie NLP, chiamata "modello di risposta alle domande". Si tratta di un sistema di recupero delle informazioni che cerca le risposte alle domande poste dall'uomo e comunica automaticamente i risultati in un linguaggio naturale. Utilizzando questa nuova tecnologia, un utente potrebbe semplicemente porre alle macchine domande nel linguaggio quotidiano, come ad esempio: "Come sono gli obiettivi e la strategia riguardo al cambiamento climatico dell'azienda rispetto ad imprese analoghe?" o "Quali sono le emissioni di carbonio di quest’azienda?". Modelli di IA adeguatamente addestrati sarebbero in grado di "capire" il contesto e di fornire tutte le risposte a queste domande e questo, a sua volta, ha iniziato ad aiutare molti investitori a migliorare le loro analisi e a produrre sempre maggiori approfondimenti.
Le macchine possono anche creare dashboard di rischio aggiornate che consentono agli utenti di confrontare i dati estratti in base a varie metriche ESG tra le aziende, nonché di tenere traccia delle notizie rilevanti sulle aziende stesse. L'output prodotto da tutti questi strumenti sarà costituito da analisi e valutazioni ESG definite dagli esperti e dagli utenti, sotto forma di report e relazioni automatizzate.
Come fare la differenza
Niente di tutto questo è fantasia o fantascienza: in Asia (e sempre più in Europa) è in corso una nuova e importante iniziativa per trasformare l'IA in uno strumento di raccolta ed elaborazione di dati qualitativi. La soluzione basata sull'IA cerca di aiutare a estrarre le vaste quantità di dati qualitativi e non strutturati attraverso il machine learning. Finora, raccogliere e ricavare informazioni dai social media, dalle notizie locali quotidiane e dai report appena disponibili è stata un'attività lenta e laboriosa, con risultati imprecisi.
Ma con l’IA i vantaggi possono essere enormi per tutte le parti in causa. Gli investitori possono rispettare meglio i requisiti ESG e prendere decisioni più informate incorporando i dati ESG nelle loro strategie di investimento, ad esempio implementando uno screening negativo/positivo.
Dal canto loro, le aziende in cerca investitori sono ora in una posizione migliore per identificare e controllare i problemi e i rischi legati all'ESG, ad esempio migliorando le operazioni aziendali e la due diligence della catena di fornitura per rendersi più conformi ai requisiti ESG; possono anche essere rassicurate sul fatto che le loro buone azioni saranno rapidamente e accuratamente riconosciute dagli investitori.
Per quanto riguarda i produttori di rating e di indici, i segnali in tempo reale possono offrire avvertimenti precoci e indicatori tempestivi, consentendo loro di rilasciare aggiornamenti più accurati. Possono, inoltre, ampliare la portata dell'analisi utilizzando informazioni derivate dall'IA per integrare i loro attuali metodi quantitativi.
Sebbene l'uso dell'IA per guidare gli ESG sia ancora in fase nascente e i risultati degli sforzi in corso siano ancora da vedere, la storia è piena di esempi di come le tecnologie abbiano contribuito a raggiungere obiettivi sociali e a creare una società migliore. Occorre, quindi, auspicare che la responsabilizzazione degli investitori, in particolare di quelli orientati all'ESG, possa far sì che l’uso di questi criteri diventi una pratica aziendale comune e rispettata, anziché un'altra moda o uno slogan a favore della sostenibilità. Come nel caso del fuoco, l'IA può essere un cattivo padrone, ma un ottimo servitore e il suo utilizzo nel modo corretto può senza dubbio contribuire al nostro sforzo di elevare gli standard etici.
Mark Esposito, Professore ordinario di Economia alla Hult International Business School e alla Division of Continuing Education della Harvard University. È Senior Advisor a Strategy& (PwC) e co-fondatore di Nexus FrontierTech. Terence Tse, Professore Ordinario di Finanza alla Hult International Business School e co-fondatore di Nexus FrontierTech. Danny Goh, CEO di Nexus FrontierTech e Associate alla Said Business School, University of Oxford.