TECNOLOGIA
Brian Spisak
Novembre 2023
Claude Gariepy/Getty Images
L’IA GENERATIVA sta ridisegnando il settore della consulenza. Da ChatPwC di PwC a Lilli di McKinsey a KymChat di KPMG e altri ancora, i copiloti dell’IA stanno ridefinendo i processi di lavoro e la concorrenza commerciale. Ma questa corsa agli armamenti dell’IA porterà a pratiche eque o a scorciatoie affrettate?
Le risposte si trovano in iniziative di collaborazione, come gli impegni volontari di Big Tech in materia di IA, che offrono alle società di consulenza una tabella di marcia per sfruttarne il potenziale, garantendo al contempo una condotta etica. Attraverso un reporting trasparente, una gestione collaborativa del rischio e best practice condivise, le società di consulenza possono navigare nella rivoluzione dell’IA in modo responsabile, plasmando la traiettoria del business e della società in modo significativo e duraturo.
ChatPwC è stato progettato per assistere i dipendenti nel loro lavoro, consentendo di trovare rapidamente le persone giuste per un compito specifico, di sfruttare maggiormente l’enorme base di conoscenze dell’azienda, di redigere proposte più solide e, infine, di fornire un servizio di livello superiore. McKinsey & Company e KPMG hanno lanciato rispettivamente Lilli e KymChat per scopi simili. EY sta lavorando a un “Chatbot intelligente per le retribuzioni” e Deloitte ha stretto un’alleanza strategica con Google per far progredire le capacità di IA generativa.
Date le dimensioni e la portata di queste importanti società di consulenza, l’idea di migliorare i processi di lavoro attraverso i loro strumenti basati sull’IA ha un significato immenso. Queste iniziative non solo riflettono l’evoluzione del panorama delle operazioni aziendali, ma costituiscono anche un precedente per lo sfruttamento di tecnologie all’avanguardia per promuovere l’efficienza, l’innovazione e l’erogazione di servizi di qualità superiore in tutti i settori e le sfaccettature del business. In altre parole, queste iniziative hanno il potenziale per rimodellare il modo in cui tutte le aziende operano, trascendendo i settori e ridisegnando il modo in cui lavoriamo, collaboriamo e innoviamo.
Perché è importante
La crescente interazione diretta, esplicita e frequente con l’IA generativa è importante per molte ragioni. Si tratta di una trasformazione fondamentale di ciò che i lavoratori fanno e del modo in cui svolgono le attività. L’emergere di copiloti dell’IA segna un cambiamento significativo nel modo in cui conduciamo e competiamo nel business. Immaginate uno scenario in cui un team di consulenti prepara un’analisi di mercato completa e una strategia per un cliente. Nell’approccio tradizionale, questo processo comporterebbe ore di ricerca, raccolta dati e analisi. Con l’integrazione dei copiloti IA, il flusso di lavoro cambia in modo significativo.
I consulenti possono ora interagire con il copilota dell’IA per raccogliere rapidamente grandi quantità di dati di mercato rilevanti, tendenze del settore e analisi dei concorrenti. Il copilota può elaborare e distillare queste informazioni in sintesi concise, visualizzazioni e persino approfondimenti preliminari. Questa rapida elaborazione dei dati libera il tempo dei consulenti, consentendo loro di concentrarsi sul pensiero strategico di livello superiore e sulla risoluzione creativa dei problemi.
In questo modo, i copiloti dell’IA modificano il modo in cui vengono condotti gli affari, accelerando il processo decisionale basato sui dati, favorendo uno sviluppo della strategia più rapido e informato e aumentando gli aspetti creativi e comunicativi del lavoro di consulenza. L’interazione tra consulenti e copiloti diventa una partnership collaborativa che sfrutta i punti di forza delle competenze umane e delle capacità dell’IA, portando in ultima analisi a pratiche aziendali più efficienti, efficaci e innovative.
Tuttavia, evitare di affidarsi eccessivamente all’IA generativa nello sviluppo dei contenuti è fondamentale per preservare la qualità. Un’eccessiva dipendenza porta a contenuti ripetitivi e standardizzati. In sostanza, diventa un’inutile fotocopiatrice. L’IA generativa, per quanto notevole, richiede il contributo delle persone per ottenere prestazioni ottimali. Senza dati freschi del mondo reale, produrrà risultati omogenei, portando a un declino della qualità e persino, come suggeriscono le recenti ricerche degli scienziati di Rice e Stanford, al fallimento del modello stesso di IA. Trovare un equilibrio tra la creatività umana e le capacità dell’IA garantisce una collaborazione armoniosa e sostenibile che sfrutta il meglio di entrambi i mondi.
La rivoluzione dell’IA è anche una prova di responsabilità. L’agguerrita competizione tra le aziende che sviluppano copiloti aziendali dotati di IA pone un test cruciale tra velocità e sicurezza. La battaglia dei bot di consulenza, ad esempio, porterà a scorciatoie sconsiderate e all’elitarismo dell’IA, oppure si orienterà verso pratiche democratiche ed eque, migliorando le prestazioni e il benessere dei lavoratori a livello globale? Questa corsa agli armamenti dell’IA favorirà l’innovazione o si tradurrà in una sconsiderata corsa al ribasso, in cui la ricerca della supremazia avrà la precedenza su uno sviluppo responsabile?
Il modo in cui queste aziende affronteranno le sfide legate alla parzialità, alla diversità e alla qualità dei dati, e il modo in cui mitigheranno i rischi intrinseci legati ai modelli linguistici di grandi dimensioni (LLM), come le allucinazioni e l’hacking immediato, determineranno la traiettoria dell’adozione dell’IA e stabiliranno se i benefici potranno essere sfruttati senza esacerbare le disuguaglianze esistenti o compromettere le pratiche commerciali etiche. Questo aspetto è immediatamente significativo perché le aziende di tutto il mondo si rivolgono sempre più spesso a consulenti per ottenere indicazioni sull’adozione dell’IA. Negli Stati Uniti, ad esempio, si prevede che il fatturato della consulenza IT crescerà del 4% su base annua, un aumento notevole rispetto al tasso di crescita medio annuo del 2% registrato negli ultimi cinque anni. In poche parole, le soluzioni che sviluppano hanno un impatto di vasta portata, che riguarda tutti noi.
La traiettoria dell’IA
Idealmente, nascerà una collaborazione open-source tra le principali società di consulenza per condividere le migliori pratiche nella costruzione di piattaforme sicure e responsabili alimentate dall’IA. Potranno competere per i clienti in base alla qualità dei prodotti e alla fornitura dei servizi, lavorando insieme per affrontare le sfide significative poste dai LLM.
Optare per un percorso di cooperazione è prudente e, in ultima analisi, più facile a lungo termine rispetto all’isolamento competitivo a breve termine, in quanto consente di mitigare le sfide in modo condiviso, di mettere in comune le risorse e di stabilire standard etici a livello di settore a beneficio di tutte le parti interessate. Una collaborazione open-source tra le principali società di consulenza nello sviluppo di copiloti e piattaforme dotate di intelligenza artificiale offre diversi vantaggi chiave:
Migliori pratiche condivise: una collaborazione open-source faciliterebbe la condivisione delle migliori pratiche nello sviluppo, nell’implementazione e nelle considerazioni etiche dell’IA. Ciò porterebbe alla creazione di piattaforme alimentate dall’IA più sicure e affidabili.
Impostazione etica: la collaborazione consentirebbe alle società di consulenza di stabilire collettivamente linee guida etiche complete per l’utilizzo dell’IA. Ciò potrebbe includere linee guida per garantire l’equità, la privacy e la mitigazione dei pregiudizi negli algoritmi di IA.
Mitigazione dei rischi: affrontare in modo collaborativo le sfide legate alla qualità dei dati, alla sicurezza e ai rischi associati ai modelli linguistici di grandi dimensioni ridurrebbe i potenziali impatti negativi delle tecnologie di IA. Ciò potrebbe portare a soluzioni di IA più responsabili e affidabili.
Reputazione del settore: una collaborazione open-source incentrata sullo sviluppo responsabile dell’IA potrebbe migliorare la reputazione complessiva del settore della consulenza. I clienti e gli stakeholder percepirebbero queste aziende come leader nell’adozione dell’IA etica, il che potrebbe attrarre più affari e collaborazioni.
Trasparenza: un approccio open-source incoraggia la trasparenza nello sviluppo dell’IA. Condividendo apertamente codice, algoritmi e metodologie, le società di consulenza possono creare fiducia nei clienti e nel pubblico in generale.
Gli otto passi
Per raccogliere questi benefici collettivi, le grandi società di consulenza che sviluppano strumenti aziendali basati sull’IA dovrebbero considerare l’adozione di un quadro simile agli impegni volontari di Big Tech in questa materia. Sebbene la sostenibilità degli impegni di Big Tech sia stata messa in discussione, un tale passo proattivo è essenziale per costruire una base di fiducia e di redditività a lungo termine nel panorama dell’IA in rapida evoluzione. In mancanza di ciò, sospetto che gli interventi normativi, che soffocheranno l’innovazione, siano inevitabili.
Per evitare questo esito, ho ideato una serie di impegni volontari adattati agli obblighi autoimposti dalle Big Tech per gestire il rischio dell’IA:
1. Garanzia di qualità dell’IA prima dell’implementazione: predisporre accurate procedure di test dell’IA prima dell’implementazione, specificamente progettate per allinearsi ai servizi delle società di consulenza, garantendo sicurezza, funzionalità e standard etici.
2. Gestione collaborativa dei rischi dell’intelligenza artificiale: collaborare ampiamente all’interno delle società di consulenza per condividere conoscenze e strategie per gestire efficacemente i rischi legati all’IA, rafforzando la capacità collettiva di mitigare le potenziali sfide.
3. Investimenti strategici nelle misure di sicurezza: stanziamento di risorse per sviluppare e applicare misure di cybersecurity personalizzate per le società di consulenza, garantendo la protezione dei sistemi interni e delle interazioni con i clienti.
4. Esplorazione di programmi di vulnerabilità dell’IA: esplorare la fattibilità di programmi di ricerca di falle adattati alle applicazioni di IA delle società di consulenza, incoraggiando gli esperti esterni a identificare e segnalare le vulnerabilità in modo responsabile.
5. Innovazioni negli indicatori di autenticità: ricerca e sviluppo di soluzioni tecniche per consentire ai clienti di identificare i contenuti generati dall’IA, garantendo una comunicazione trasparente nei servizi di consulenza.
6. Comunicazione trasparente delle capacità dell’IA: impegno a comunicare in modo trasparente le capacità e i limiti dei sistemi di IA utilizzati nei servizi di consulenza, per consentire ai clienti di prendere decisioni informate.
7. Ricerca sull’impatto sociale: condurre ricerche sugli impatti sociali specifici dell’IA nel contesto dei servizi di consulenza, affrontando preoccupazioni come i pregiudizi e le violazioni della privacy e proponendo soluzioni adeguate.
8. Elevata integrazione dei sistemi avanzati di IA nelle operazioni: espandere l’integrazione di sistemi avanzati di IA nelle funzioni di consulenza per migliorare l’efficienza, la precisione e l’innovazione, aumentando in ultima analisi la sicurezza e la qualità dei servizi forniti dalle società di consulenza.
Adottando questi impegni, queste aziende stanno tracciando una rotta verso l’adozione responsabile dell’IA, enfatizzando le considerazioni etiche, la trasparenza e la centralità del cliente. In un’epoca in cui la trasformazione dell’IA è inevitabile, questi impegni li guideranno nel plasmare il futuro delle pratiche commerciali basate sull’IA con integrità e lungimiranza. Ora sta a loro prendere la decisione giusta.
Brian R. Spisak è ricercatore associato presso la National Preparedness Leadership Initiative di Harvard e consulente indipendente. È autore di Computational Leadership: Connecting Behavioral Science and Technology to Optimize Decision-Making and Increase Profits (Wiley, 2023).
Leggi Hbr Italia
anche su tablet e computer
Newsletter