Il punto

ChatGPT e l'energia: come l'AI sta influenzando le emissioni di CO2

Secondo uno studio intitolato «The growing energy footprint of artificial intelligence» nel 2027 il settore potrebbe consumare da 85 a 134 terawattora (TWh) di elettricità
Creato con Midjourney/OpenAI
Red. Online
31.03.2024 09:01

L'intelligenza artificiale fa male al pianeta, in termini di emissioni? Può darsi. Di sicuro, i modelli di linguaggio come ChatGPT necessitano di molta energia per funzionare. Secondo uno studio intitolato The growing energy footprint of artificial intelligence, pubblicato alla fine dello scorso anno sulla rivista scientifica Joule, nel 2027 il settore potrebbe consumare da 85 a 134 terawattora (TWh) di elettricità. Come un intero Paese, sì. 

Molti osservatori, invero, hanno spiegato che simili conclusioni andrebbero prese con le molle. Tuttavia, a seguito dell'esplosione dell'intelligenza artificiale – ChatGPT, da solo, conta 180 milioni di utenti attivi – è lecito, se non sacrosanto, porsi la questione. O, meglio, chiedersi quale sia la (reale) impronta carbonica dei modelli linguistici. 

La trasparenza, in questo momento, è la grande assente se parliamo di intelligenza artificiale o AI. Microsoft, per dire, ha semplicemente affermato di recente che l'azienda sta investendo in tecnologie capaci di quantificare consumo energetico e impatto ambientale dell'AI. Il tutto, parallelamente, con l'obiettivo di rendere strumenti come ChatGPT più efficienti. Peggio, su questo fronte, hanno fatto proprio l'editore di ChatGPT, OpenAI, e Meta: a precisa domanda del portale specializzato The Verge, infatti, entrambe le aziende sono rimaste in silenzio. Lo stesso ha fatto Nvidia, fra i principali produttori di unità di elaborazione grafica, essenziali per l'addestramento dei migliori modelli, ha detto poco o nulla circa l'impronta carbonica dei suoi chip. 

La mancanza di trasparenza è stata definita problematica da più parti, a maggior ragione considerando la popolarità di cui godono le applicazioni basate su queste AI generative. Capaci di produrre testi e immagini a partire da semplici richieste testuali. Di più, se i primi modelli di intelligenza artificiale specializzata – in grado di fare previsioni, classificazioni o persino riconoscimento di testi – consumavano un'energia vicina o comunque paragonabile a quella degli strumenti digitali convenzionali, il consumo energetico dei modelli di AI generativa gioca uno sport completamente differente. Un'altra partita, proprio così.

L'Agenzia internazionale dell'energia (IEA) a tal proposito ha specificato che una banalissima ricerca su Google – in questi giorni, fra le tante, andava per la maggiore «che tempo farà in Ticino?» – consuma 0,3 wattora di elettricità. Una richiesta su ChatGPT, invece, consuma anche dieci volte tanto. La domanda, a questo punto, è una principalmente: com'è possibile un simile divario? I fattori, spiega sempre l'IEA, sono molteplici. La prima discriminante, in assoluto, è che le AI generative necessitano di una quantità di dati ampia, anzi ampissima per il loro addestramento. 

Non solo, le cose andranno peggio, molto peggio in futuro. Secondo l'IEA, infatti, il consumo combinato generato da intelligenza artificiale, criptovalute e data center potrebbe raddoppiare entro il 2026. Passando dai 460 terawattora del 2022, diciamo il consumo di energia elettrica di un Paese come l'Italia, a oltre 1.000 terawattora. Il punto, va da sé, è capire che l'elettricità in Paesi sviluppati è fortemente decarbonizzata mentre altrove dipende ancora da combustibili fossili. Tradotto: per avere elettricità è necessario emettere CO2, il principale gas serra responsabile del cambiamento climatico. Nel 2002, stando ai dati compilati dal think tank Ember, i combustibili fossili rappresentavano ancora poco più del 60% della produzione mondiale di elettricità.

Il problema nel problema, infine, è dettato anche dall'uso che la società e soprattutto le aziende fanno (e faranno) dell'intelligenza artificiale. Nel 2019, prima ancora del cosiddetto boom, il colosso petrolifero ExxonMobil aveva annunciato che la piattaforma cloud Microsoft Azure – grazie alla presenza dell'AI – le avrebbe permesso di ottimizzare le operazioni di estrazione e di aumentare la produzione di 50 mila barili al giorno. Shein, il gigante cinese della moda a basso, bassissimo costo, bersagliato continuamente dalla critica per il suo impatto ambientale, si affida agli algoritmi e all'intelligenza artificiale per sviluppare nuovi capi sempre più velocemente. In media, secondo le stime, vengono aggiunti ogni giorno circa 7.200 nuovi prodotti al catalogo. Non solo, gli stessi algoritmi e l'AI aiutano Shein a incrementare le vendite spingendo i prodotti in modo iper-mirato sui social.

In questo senso, è altamente preferibile utilizzare l'AI per mitigare gli effetti del cambiamento climatico o combatterli. I modelli generativi, infatti, possono essere applicati per ridurre le emissioni in modo significativo in svariati settori: dall'agricoltura ai trasporti.