SOCIETÀ

Provare a ridurre l'impatto ambientale dell'IA

Gli elettrodomestici non sono tutti uguali. Due lavatrici svolgeranno gli stessi compiti, ma quella di classe energetica migliore consumerà meno energia elettrica e meno acqua. Un primo risultato è che fanno risparmiare sulla bolletta, motivo per cui la classe energetica degli elettrodomestici viene messa ben in evidenza da chi li vende. Ma a questo si aggiunge anche un minor impatto sull’ambiente, contribuendo al contenimento delle emissioni climalteranti.

Lo stesso avviene per i servizi digitali: mandare un’email o pubblicare un post sui social network consuma energia. Solo che normalmente questo consumo non è direttamente a carico dell’utenza: i computer dove “girano” i servizi online sono da qualche parte in una server-farm (, un enorme agglomerato di computer), e la bolletta la paga chi fornisce il servizio, non l’utente finale. Lo stesso avviene anche per l’utilizzo dei modelli di intelligenza artificiale: ogni volta che chiediamo a un bot di riassumere un testo oppure di creare un’immagine questo compito viene svolto sui server delle aziende sparsi in tutto il mondo.

L'IA è energivora

Rispetto al mondo degli elettrodomestici, però, ci sono alcune differenze. OpenAI, Google e compagnia, cioè i proprietari dei principali servizi di IA sul mercato, non comunicano i consumi dei propri servizi. Anzi, si tratta di uno dei loro segreti meglio custoditi. Non abbiamo dati precisi, quindi, ma ci sono alcuni indizi che si tratti di costi energetici elevatissimi. Secondo quanto riportato da Kate Crawford su Nature lo scorso febbraio, il consumo di elettricità di ChatGPT sarebbe già paragonabile a quello di 33mila famiglie americane. In generale, il ricorso a un servizio di IA ha un costo energetico pari a 4 o 5 volte la ricerca tradizionale sul web. Inoltre, secondo diverse stime, con l’aumento della diffusione dei modelli di IA e l’aumento dell’utenza, questi consumi non possono che crescere. Per dare un’idea, i consumi di Google causati dai suoi servizi di IA sono aumentati del 48% tra il 2019 e il 2023.

Un servizio di IA ha un costo energetico pari a 4 o 5 volte la ricerca tradizionale sul web

Proprio come le lavatrici, anche i data-center consumano acqua, soprattutto per i sistemi di raffreddamento. Un’indicazione è saltata fuori nel corso di una causa legale nel 2022 in Iowa, nel distretto di West Des Moines, dove OpenAI ha uno dei suoi data-center impiegati per il training di ChatGPT: il suo consumo di acqua si aggira attorno al 6% del totale del distretto. Un preprint pubblicato su arXiv.org ad aprile dello scorso anno ha stimato che nel 2027 il consumo di acqua globale causato dai servizi di IA sarà pari a metà della richiesta annua del Regno Unito. 

 

Un utilizzo più consapevole

Sasha Luccioni è una ricercatrice canadese che si occupa degli impatti dell’intelligenza artificiale. Lavora a Hugging Face, un’organizzazione che ha l’obiettivo di “democratizzare il machine learning”. Una delle sue iniziative è CodeCarbon, un pacchetto di codice software completamente gratuito che permette di stimare il costo energetico di un programma in cui è implementato, o di una sua parte. L’idea è che attraverso questo strumento gli stessi sviluppatori possano rendersi conto di quali impatti può avere in termini ambientali il codice che stanno scrivendo e possano eventualmente fare delle scelte diverse per limitarli.

Sensibilizzare chi produce i servizi è un passo, ma secondo Luccioni serve anche rendere evidente per chi li utilizza che tipo di impatto abbiano. Per questo, proprio come nel caso di elettrodomestici e lampadine, Luccioni e un gruppo di altre persone interessate agli impatti ambientali dell’IA hanno proposto attraverso la rivista Nature un sistema di etichettatura dei consumi dei servizi di IA, in modo che si possa scegliere di usare un servizio a impatto minore. 

 

Sì, ma quanto?

Come si è accennato, i dati sul consumo dei servizi commerciali di IA non sono noti, ma quello che si sa è che gli algoritmi possono essere più o meno efficienti nello svolgere i loro compiti. Inoltre, alcuni compiti sono più dispendiosi di altri. Usando solo i modelli di IA non proprietari disponibili, Luccioni e il resto del team hanno calcolato quanto consumino alcuni compiti che normalmente vengono assegnati ai bot, chiedendo ai diversi algoritmi di rispondere allo stesso compito 1000 volte, in modo da standardizzare il risultato. Per esempio, il riconoscimento automatico del parlato costa circa 22 wattora (Wh), l’equivalente di caricare completamente la batteria di uno smartphone. Generare un’immagine, invece, può costare fino a 1000 Wh, ovvero quanto basta per far funzionare un computer portatile per una ventina di ore.

 

Il riconoscimento automatico del parlato costa come caricare la batteria di uno smartphone

Il modello di classificazione proposto è direttamente ispirato a quello dell’Energy Star System, uno standard impiegato per classificare l’efficienza delle lampadine e degli elettrodomestici. L’idea è stata lanciata, ma potrà diventare davvero efficace solamente se le aziende tech saranno obbligate, come è successo ai produttori di lampadine, a sottoporre i propri prodotti all’etichettatura. Questo avrebbe un impatto sullo sviluppo di codice meno “pesante” e più efficiente, stimolato proprio dalla scelta dell’utenza. 

 

Bisognerebbe aprire l’intelligenza artificiale

Per fare questo, oltre a un obbligo di legge, però servirebbe che i sistemi di intelligenza artificiale commerciali diventassero più aperti, cioè non custodissero gelosamente i loro modelli. Luccioni e le altre persone che hanno fatto proposte simili ne sono consapevoli. Si tratta di un modo di vedere lo sviluppo tecnologico che al momento non è maggioritario all’interno del mondo dell’IA e che prevede una maggiore collaborazione tra chi fa ricerca e chi sviluppa prodotti, e una minore pressione del mercato a sviluppare prodotti in competizione tra loro. È una visione che assomiglia di più a quello dei primi tempi di internet, più aperto e accessibile. Luccioni, in questo senso, ha collaborato al rilascio di BLOOM, avvenuto nel giugno dello scorso anno. BLOOM è un LLM (Large Language Model), un modello dello stesso tipo di quello che si trova alla base di ChatGPT o di altre applicazioni IA che permettono di interagire impiegando il linguaggio naturale. Ma BLOOM è completamente open source e gratuito e può essere utilizzato liberamente per creare applicazioni. BLOOM performa in maniera analoga ai principali LLM sul mercato, e costituisce quindi un esempio di IA più trasparente. Una trasparenza, ricorda Luccioni in un suo TED Talk, che non significa solamente poter conoscere dettagliatamente il costo ambientale di BLOOM, ma anche un tentativo di arginare altri tipi di utilizzi che possono rendere l’IA meno democratica e giusta.

POTREBBE INTERESSARTI

© 2018 Università di Padova
Tutti i diritti riservati P.I. 00742430283 C.F. 80006480281
Registrazione presso il Tribunale di Padova n. 2097/2012 del 18 giugno 2012