Ambiente: esperti, ‘ChatGpt consuma già quanto 33mila case’

Condividi questo articolo?

Si apre dibattito su come renderla sostenibile, rischio è che porti a crisi energetica

 

Dall’intelligenza artificiale generativa un conto sempre più salato per l’ambiente. E’ uno dei nodi che preoccupa gli esperti: l’impatto di queste tecnologie sul pianeta. Il dibattito è aperto e viene affrontato anche su una delle riviste di riferimento della comunità scientifica, ‘Nature’. Il mese scorso, il Ceo di OpenAi Sam Altman aveva lanciato un monito: la prossima ondata di ‘generativa Ai’ consumerà molta più energia del previsto. “In pratica ha ammesso ciò che i ricercatori dicono da anni: che l’industria dell’Ai si sta dirigendo verso una crisi energetica. Un’ammissione insolita”, osserva l’autrice dell’articolo su Nature online, Kate Crawford, professoressa all’University of Southern California Annenberg e senior principal researcher della Microsoft Research in New York City, autrice del libro ‘Atlas of AI’. Di che costi ambientali si parla? Basti pensare, osserva la scienziata, che ChatGpt, il chatbot creato da OpenAi a San Francisco in California, secondo una valutazione “sta già consumando l’energia di 33mila case”.

Pubblicità

Occasione per le esternazioni di Altman è stata l’incontro annuale del World Economic Forum a Davos, in Svizzera. Il Ceo avvertiva: i sistemi energetici faranno fatica a farcela, a reggere il peso di questa rivoluzione hi-tech. “Non c’è modo di arrivarci senza una svolta”, il suo messaggio. Parole che hanno fatto piacere a Crawford: “Ho assistito a una costante minimizzazione e negazione dei costi ambientali del settore dell’Ia da quando ho iniziato a pubblicarli nel 2018. L’ammissione di Altman ha spinto ricercatori, regolatori e titani del settore a parlare dell’impatto ambientale dell’intelligenza artificiale generativa”.

Ma su quale svolta energetica punta Altman? “Non la progettazione e implementazione di sistemi di intelligenza artificiale più sostenibili, ma sulla fusione nucleare”, spiega Crawford evidenziando come il riferimento non sia casuale, visto che Altman nel 2021 ha iniziato a investire in una società di Everett (Washington) che lavora alla fusione nucleare, Helion Energy. “La maggior parte degli esperti – precisa Crawford – concorda sul fatto che la fusione nucleare non contribuirà in modo significativo all’obiettivo cruciale della decarbonizzazione entro la metà del secolo per combattere la crisi climatica. La stima più ottimistica di Helion è che entro il 2029 produrrà energia sufficiente per alimentare 40mila famiglie medie negli Stati Uniti”. Accostato alla valutazione sui consumi attuali di ChatGpt la questione è chiara. Per inquadrare il problema Crawford cita altre stime, come quella secondo cui una ricerca guidata dall’intelligenza artificiale generativa utilizzi da 4 a 5 volte l’energia di una ricerca web convenzionale. “Nel giro di pochi anni, è probabile che i grandi sistemi di intelligenza artificiale necessitino di tanta energia quanto intere nazioni”, avverte l’esperta.

E non è solo un tema di energia. I sistemi di intelligenza artificiale generativa, fa notare, “necessitano di enormi quantità di acqua dolce per raffreddare i loro processori e generare elettricità. A West Des Moines, Iowa, un gigantesco cluster di data centre serve il modello più avanzato di OpenAi, Gpt-4. Una causa intentata da residenti locali ha fatto emergere che nel luglio 2022, il mese prima che OpenAi finisse di addestrare il modello, il cluster utilizzava circa il 6% dell’acqua del distretto. Mentre Google e Microsoft preparavano i loro grandi modelli linguistici Bard e Bing hanno registrato picchi importanti nell’uso dell’acqua: rispettivamente +20% e +34% in un anno, secondo i rapporti ambientali delle società.

Un lavoro in versione preprint citato dalla scienziata suggerisce inoltre che, a livello globale, la domanda di acqua per l’Ai potrebbe essere pari alla metà di quella del Regno Unito entro il 2027. In un altro preprint i ricercatori di Facebook Ai parlano di “elefante nella stanza”, riferendosi all’impatto ambientale della ricerca infinita di una qualità di modello più elevata. “Piuttosto che tecnologie irrealizzabili, abbiamo bisogno di azioni pragmatiche per limitare subito gli impatti ecologici dell’intelligenza artificiale”, conclude Crawford. “Non c’è motivo per cui non possa essere fatto. L’industria potrebbe dare priorità all’utilizzo di meno energia, costruire modelli più efficienti e ripensare il modo in cui progetta e utilizza i data center. Come ha dimostrato il progetto BigScience in Francia con il suo Bloom3, è possibile costruire un modello di dimensioni simili al Gpt-3 di OpenAi con un’impronta di carbonio molto inferiore”. Ma “non è quello che sta accadendo nel settore in generale – osserva l’esperta – Resta molto difficile ottenere dati accurati e completi sugli impatti ambientali. I costi globali dell’intelligenza artificiale generativa sono segreti aziendali gelosamente custoditi”.

Ma alla fine “i legislatori se ne stanno accorgendo. L’1 febbraio i democratici statunitensi guidati dal senatore Ed Markey del Massachusetts hanno presentato l”Artificial Intelligence Environmental Impacts Act’, disegno di legge che ordina al National Institute for Standards and Technology di collaborare con i vari attori per stabilire standard di valutazione dell’impatto ambientale dell’Ia. Da vedere se verrà approvato. “Data l’urgenza, occorre fare di più”, chiosa Crawford. Serve “un approccio articolato”: nell’industria “le pratiche sostenibili dovrebbero essere imperative” e prioritarie; i ricercatori potrebbero ottimizzare le architetture delle reti neurali per la sostenibilità; e i legislatori stabilire parametri per l’uso di energia e acqua, incentivare l’adozione di energie rinnovabili ma anche imporre rendiconti ambientali completi e valutazioni di impatto. Il tempo stringe”. (Adnkronos)

Credits photo - Autore: Focal Foto

Potrebbe interessarti

Leave a Comment

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.