SOSTENIBILITÀ AMBIENTALE
Ajay Kumar, Tom Davenport
Agosto 2023
Illustration by Alex William
MENTRE GLI OSSERVATORI sono rimasti stupefatti dalle capacità dei nuovi strumenti di IA generativa come ChatGPT, BERT, LaMDA, GPT-3, DALL-E-2, MidJourney e Stable Diffusion, i costi e l’impatto ambientale nascosti di questi modelli sono spesso trascurati. Lo sviluppo e l’uso di questi sistemi sono ad alta intensità energetica e il mantenimento della loro infrastruttura fisica comporta un elevato consumo di energia. In questo momento, questi strumenti stanno appena iniziando a guadagnare terreno, ma è ragionevole pensare che i costi siano destinati a crescere – e in modo drammatico – nel prossimo futuro.
Il settore dei data center, che si riferisce a una struttura fisica progettata per immagazzinare e gestire sistemi tecnologici di informazione e comunicazione, è responsabile del 2-3% delle emissioni globali di gas serra (GHG). Il volume di dati nel mondo raddoppia ogni due anni. I server dei data center che immagazzinano questo mare di informazioni in continua espansione richiedono enormi quantità di energia e acqua (direttamente per il raffreddamento e indirettamente per la generazione di elettricità non rinnovabile) per far funzionare i server dei computer, le apparecchiature e i sistemi di raffreddamento. Questi sistemi rappresentano circa il 7% del consumo di elettricità della Danimarca e il 2,8% degli Stati Uniti.
Quasi tutti i modelli di IA generativa più noti sono generati da fornitori di cloud “hyperscale” (molto grandi) con migliaia di server che producono un’importante impronta di carbonio; in particolare, questi modelli vengono eseguiti su chip di unità di elaborazione grafica (GPU). Questi richiedono un consumo energetico 10-15 volte superiore a quello di una CPU tradizionale, perché la GPU utilizza un numero maggiore di transistor nelle unità logiche aritmetiche. Attualmente, i tre principali fornitori di cloud hyperscale sono Amazon AWS, Google Cloud e Microsoft Azure.
Se cerchiamo di capire l’impatto ambientale di ChatGPT attraverso la lente dell’impronta di carbonio, dobbiamo innanzitutto comprendere il ciclo di vita dell’impronta di carbonio dei modelli di apprendimento automatico (machine learning, ML). Questa è la chiave per iniziare a rendere l’IA generativa più ecologica attraverso un minor consumo di energia.
Cosa determina l’impronta di carbonio dei modelli di IA generativa?
I modelli generativi di grandi dimensioni non sono tutti uguali in termini di consumo energetico ed emissioni di carbonio. Quando si determina l’impronta di carbonio di un modello di ML, si devono considerare tre valori distinti:
- l’impronta di carbonio derivante dall’addestramento del modello;
- l’impronta di carbonio derivante dall’esecuzione dell’inferenza (dedurre o prevedere i risultati utilizzando nuovi dati di input, come ad esempio un prompt) con il modello ML una volta che è stato distribuito;
- l’impronta di carbonio necessaria per produrre tutto l’hardware di calcolo e le capacità del centro dati cloud.
I modelli con più parametri e dati di addestramento generalmente consumano più energia e generano più carbonio. GPT-3, il modello “madre” di ChatGPT, è al vertice dei modelli generativi per dimensioni. Ha 175 miliardi di parametri del modello ed è stato addestrato su oltre 500 miliardi di parole di testo. Secondo un articolo di ricerca, la recente classe di modelli generativi di intelligenza artificiale richiede un aumento della potenza di calcolo da dieci a cento volte per addestrare i modelli rispetto alla generazione precedente, a seconda del modello utilizzato. La domanda complessiva raddoppia quindi ogni sei mesi circa.
L’addestramento dei modelli è il componente dell’IA generativa che richiede più energia. I ricercatori hanno sostenuto che l’addestramento di un “singolo modello di deep learning di grandi dimensioni”, come GPT-4 di OpenAI o PaLM di Google, è stimato in circa 300 tonnellate di CO2 – per fare un paragone, una persona media è responsabile della creazione di circa 5 tonnellate di CO2 all’anno, anche se il nordamericano medio ne genera diverse volte tanto. Altri ricercatori hanno calcolato che l’addestramento di un modello generativo di IA di medie dimensioni, utilizzando una tecnica chiamata “ricerca di architetture neurali”, ha comportato un consumo di elettricità e di energia equivalente a 626.000 tonnellate di emissioni di CO2, ovvero le stesse emissioni prodotte dalla guida di cinque automobili americane medie nel corso della loro vita. L’addestramento di un singolo modello BERT (un modello linguistico di grandi dimensioni sviluppato da Google) da zero richiederebbe la stessa energia e impronta di carbonio di un volo commerciale transatlantico.
L’inferenza, ovvero l’utilizzo dei modelli per ottenere risposte alle richieste degli utenti, consuma meno energia a ogni sessione, ma alla fine comporta molte più sessioni. A volte questi modelli vengono addestrati una sola volta, per poi essere distribuiti nel cloud e utilizzati da milioni di utenti per l’inferenza. In questo caso, anche la distribuzione di modelli di deep-learning di grandi dimensioni nel cloud a scopo di inferenza consuma molta energia. Gli analisti riferiscono che NVIDIA stima che l’80-90% del costo energetico delle reti neurali risieda nell’elaborazione dell’inferenza in corso dopo l’addestramento di un modello.
Oltre all’addestramento iniziale e all’utilizzo di energia per l’inferenza da parte di modelli generativi di grandi dimensioni, gli utenti e i rivenditori di questi modelli utilizzano sempre più spesso l’addestramento basato sulla messa a punto o sul prompt. Se combinato con il modello generativo originale, addestrato su grandi volumi di dati, il fine-tuning consente di ottenere richieste e risposte personalizzate per i contenuti specifici di un’organizzazione. Alcune ricerche suggeriscono che la formazione fine-tuning consuma molta meno energia e potenza di calcolo rispetto alla formazione iniziale. Tuttavia, se molte organizzazioni adottano approcci di fine-tuning e lo fanno spesso, il consumo energetico complessivo potrebbe essere piuttosto elevato.
Sebbene sia difficile calcolare il costo di produzione dei computer necessari per eseguire tutto questo software di intelligenza artificiale, c’è ragione di credere che sia molto alto. Uno studio del 2011 ha stimato che il 70% dell’energia utilizzata da un tipico computer portatile viene consumata durante la sua produzione e che per i computer desktop la percentuale sia ancora più alta. È probabile che i complessi e potenti chip delle GPU e i server utilizzati per eseguire i modelli di IA abbiano un consumo di energia molto più elevato rispetto ai laptop e ai desktop.
Come rendere l’IA più ecologica
Alla luce di tutto ciò, esiste un movimento per rendere la modellazione, l’implementazione e l’utilizzo dell’IA più sostenibile dal punto di vista ambientale. L’obiettivo è quello di sostituire gli approcci ad alto consumo energetico con altri più adatti e rispettosi dell’ambiente. È necessario un cambiamento sia da parte dei fornitori che degli utenti per rendere gli algoritmi di IA ecologici, in modo che la loro utilità possa essere ampiamente diffusa senza danni per l’ambiente. In particolare, i modelli generativi, dato il loro elevato consumo energetico, devono diventare più ecologici prima di diventare più diffusi. Conosciamo diversi modi in cui l’IA e l’IA generativa possono muoversi in questa direzione, che descriviamo di seguito.
Utilizzare i modelli generativi di grandi dimensioni esistenti, non generarne di propri. Esistono già molti fornitori di modelli linguistici e di immagini di grandi dimensioni e ne esisteranno altri. Crearli e addestrarli richiede enormi quantità di energia. Non c’è bisogno di aziende che non siano grandi fornitori o cloud provider per generare modelli di grandi dimensioni da zero; hanno già accesso ai dati di addestramento necessari e a enormi volumi di capacità di calcolo nel cloud, quindi non hanno bisogno di acquisirli.
Affinare l’addestramento dei modelli esistenti. Se un’azienda vuole un modello generativo addestrato sui propri contenuti, non dovrebbe partire da zero per addestrare un modello, ma piuttosto perfezionare un modello esistente. La messa a punto e l’addestramento immediato su domini di contenuto specifici consumano molta meno energia rispetto alla formazione di nuovi modelli di grandi dimensioni da zero, e inoltre può fornire più valore a molte aziende rispetto ai modelli addestrati in modo generico. Questo dovrebbe essere l’obiettivo principale per le aziende che desiderano adottare modelli generativi per i propri contenuti.
Utilizzare metodi di calcolo a risparmio energetico. Un altro approccio per ridurre il consumo energetico dell’IA generativa consiste nell’utilizzare approcci meno costosi dal punto di vista computazionale, come TinyML, per elaborare i dati. Il framework TinyML consente agli utenti di eseguire modelli di intelligenza artificiale su dispositivi periferici piccoli e poco potenti, come i microcontrollori, con requisiti di larghezza di banda ridotti (non è necessario inviare i dati al server per l’elaborazione). Mentre le CPU consumano in media 70 watt di potenza e le GPU 400, un minuscolo microcontrollore consuma solo poche centinaia di microwatt – un migliaio di volte in meno – per elaborare i dati localmente senza inviarli ai server.
Utilizzare un modello di grandi dimensioni solo quando offre un valore significativo. È importante che i data scientist e gli sviluppatori sappiano dove il modello offre valore. Se l’uso di un sistema tre volte più assetato di energia aumenta l’accuratezza di un modello solo dell’1-3%, allora non vale la pena di consumare più energia. Più in generale, l’apprendimento automatico e l’intelligenza artificiale non sono sempre necessari per risolvere un problema. Gli sviluppatori devono prima effettuare ricerche e analisi di più soluzioni alternative e selezionare un approccio in base ai risultati ottenuti. Il Montreal AI Ethics Institute, ad esempio, sta lavorando attivamente su questo problema.
Utilizzare l’IA generativa in modo discreto. Gli strumenti di apprendimento automatico e di PNL sono rivoluzionari nel campo della salute e delle previsioni mediche. Sono ottimi per la previsione di rischi naturali come tsunami, terremoti, ecc. Si tratta di applicazioni utili, ma gli strumenti che servono solo a generare post per i blog o a creare storie divertenti potrebbero non essere l’uso migliore per questi strumenti pesanti dal punto di vista computazionale. Potrebbero impoverire la salute della Terra più di quanto non aiutino i suoi abitanti. Se un’azienda utilizza l’IA generativa per la creazione di contenuti, dovrebbe cercare di garantire che i modelli siano utilizzati solo quando necessario o per ridurre altri costi di elaborazione, il che dovrebbe ridurre anche il budget complessivo per l’elaborazione.
Valutare le fonti energetiche del cloud provider o del data center. L’intensità di carbonio dell’IA (e del software in generale) può essere ridotta al minimo distribuendo i modelli in regioni in grado di utilizzare risorse energetiche rispettose dell’ambiente e delle emissioni di carbonio. Questa pratica ha dimostrato una riduzione del 75% delle emissioni operative. Ad esempio, un modello addestrato e operativo negli Stati Uniti può utilizzare energia proveniente da combustibili fossili, ma lo stesso modello può essere eseguito in Quebec, dove la fonte energetica primaria è l’idroelettrico. Google ha recentemente avviato la costruzione di un centro dati a energia pulita da 735 milioni di dollari in Quebec e prevede di passare a un’energia priva di emissioni di carbonio 24/7 entro il 2030. Offre inoltre una “Carbon Sense Suite” per aiutare le aziende a ridurre il consumo energetico dei loro carichi di lavoro in cloud. Gli utenti dei fornitori di cloud possono monitorare gli annunci delle aziende su quando e come hanno utilizzato fonti energetiche a zero emissioni di carbonio o a zero emissioni di carbonio.
Riutilizzare modelli e risorse. Proprio come altri materiali, la tecnologia può essere riutilizzata. Si possono utilizzare modelli open-source piuttosto che crearne di nuovi. Il riciclo può ridurre l’impatto delle pratiche di IA che producono carbonio. Le materie prime possono essere estratte per produrre nuove generazioni di computer portatili, processori, dischi rigidi e molto altro.
Includere l’attività di IA nel monitoraggio delle emissioni di carbonio. Tutti i laboratori di ricerca, i fornitori di IA e le aziende che utilizzano l’IA devono adottare pratiche di monitoraggio delle emissioni di carbonio per sapere qual è la loro impronta di carbonio. Devono anche rendere pubblici i numeri delle loro impronte affinché i loro clienti possano prendere decisioni intelligenti sulla scelta di fare affari con loro legati all’IA. Il calcolo delle emissioni di gas serra dipende dai set di dati dei fornitori di dati e delle aziende di elaborazione, come i laboratori di ricerca e i fornitori di servizi basati sull’IA, come OpenAI. Dalla nascita delle idee all’infrastruttura che verrà utilizzata per ottenere i risultati della ricerca, tutti devono seguire approcci di IA verde. Sono disponibili diversi pacchetti e strumenti online come CodeCarbon, Green Algorithms e ML CO2 Impact, che possono essere inclusi nel codice in fase di esecuzione per stimare le emissioni e dovremmo incoraggiare la comunità degli sviluppatori a prendere in considerazione queste metriche di performance per stabilire dei benchmark e valutare i modelli di ML.
NATURALMENTE, l’uso di modelli di intelligenza artificiale generativa da parte di organizzazioni e individui richiede molte considerazioni: etiche, legali, filosofiche e psicologiche. Le preoccupazioni ecologiche, tuttavia, meritano di essere aggiunte al mix. Possiamo discutere delle implicazioni future a lungo termine di queste tecnologie per l’umanità, ma queste considerazioni saranno inutili se non avremo un pianeta abitabile su cui discuterle.
Ajay Kumar è professore associato di Sistemi informativi e Business Analytics presso la EMLYON Business School, Francia. Ajay ha ricoperto posizioni di post-doc presso il Massachusetts Institute of Technology e l’Università di Harvard. Attualmente è affiliato come visiting fellow alla Said Business School dell’Università di Oxford. Thomas H. Davenport è Professore emerito di IT e Management al Babson College, ricercatore presso il MIT Center for Digital Business, cofondatore dell’International Institute for Analytics e Senior Advisor di Deloitte Analytics. È autore del nuovo libro Big Data at Work e del best seller Competing on Analytics.
Leggi Hbr Italia
anche su tablet e computer
Newsletter