AI - Intelligenza Artificiale | Sostenibilità
Data Pubblicazione:

AI e sostenibilità: dopo l’allarme, le speranze. L’altra faccia della tempesta perfetta

Nel primo articolo abbiamo raccontato la tempesta perfetta che l’IA sta creando nel sistema energetico globale. In questo secondo approfondimento, tratto da un’inchiesta pubblicata da MIT Technology Review, esploriamo le innovazioni tecnologiche che offrono uno spiraglio di speranza: modelli più leggeri, chip efficienti, data center sostenibili e nuovi equilibri economici.

Dalla denuncia dei rischi energetici dell’intelligenza artificiale a una mappa delle innovazioni che possono renderla sostenibile

Nel nostro precedente articolo – “AI, energia e la tempesta perfetta” – abbiamo sollevato un interrogativo cruciale: l’intelligenza artificiale può davvero crescere senza travolgere l’equilibrio energetico del pianeta?

Attraverso numeri, stime e scenari, abbiamo mostrato come la combinazione tra IA, data center, elettrificazione della mobilità e climatizzazione rischi di generare un impatto sistemico drammatico. Una “tempesta perfetta” pronta a scaricarsi su reti, territori e risorse.

In questo secondo contributo, vogliamo esplorare l’altra metà del cielo: esistono già segnali, tecnologie e visioni che suggeriscono come l’IA possa anche diventare più efficiente, selettiva, leggera.

Sostenuta non solo da algoritmi intelligenti, ma anche da modelli meno energivori, chip innovativi, data center raffreddati in modo sostenibile e logiche economiche finalmente allineate con la sobrietà energetica.

Se nel primo articolo abbiamo raccontato un rischio, qui tracciamo una possibilità: costruire un’intelligenza artificiale non solo etica nei contenuti, ma anche etica nella sua impronta materiale.

Un’intelligenza, insomma, che impari a consumare meno – e meglio.

    

AI ed energia: quattro motivi per sperare in un futuro sostenibile

Riflessioni tratte dalla lettura: “Four reasons to be optimistic about AI’s energy usage”, Will Douglas Heaven, MIT Technology Review, 20 maggio 2025

Nel precedente approfondimento (“AI, energia e la tempesta perfetta”) abbiamo documentato come l’intelligenza artificiale, dietro l’apparente leggerezza delle sue risposte, nasconda un’impronta energetica crescente e opaca. Tuttavia, nell’industria e nella ricerca avanzano innovazioni promettenti.

In questo articolo, riprendiamo il lavoro pubblicato da Will Douglas Heaven su MIT Technology Review, che segnala quattro ragioni per cui la corsa all’IA potrebbe anche guidare verso una maggiore efficienza energetica, e non solo verso l’abisso dei consumi.

Il primo fronte di speranza è legato ai modelli stessi: come sono costruiti, addestrati e utilizzati.

Oggi, i grandi modelli di linguaggio vengono addestrati su enormi quantità di dati raccolti in modo indiscriminato. Testi web, intere biblioteche digitalizzate: tutto ciò che non è inchiodato viene inserito nel training set. Ma questo approccio, oltre a essere energeticamente costoso, è anche concettualmente grezzo.

Raquel Urtasun, CEO della startup canadese Waabi, propone un metodo più “pedagogico”: come per i bambini, anche l’IA può imparare meglio attraverso curricola mirati, cioè dataset più curati, specifici e realistici. Waabi ad esempio allena i suoi camion autonomi in ambienti simulati ad alta fedeltà, ottimizzando l’efficacia e riducendo la dispersione computazionale.

Allo stesso modo, la startup Writer utilizza dati sintetici adattati per addestrare modelli aziendali: invece di scaricare Wikipedia in blocco, il contenuto delle pagine viene riformattato in diversi modi per massimizzare l’apprendimento. Più efficacia, meno consumo.

Anche la fase di utilizzo dei modelli offre margini di ottimizzazione. I cosiddetti modelli di “reasoning”, che scompongono le domande in sottopassi per rispondere meglio, sono al momento molto energivori. Il modello o3 di OpenAI, secondo alcune stime, può arrivare a costare 30.000 dollari per una singola esecuzione. Ma siamo agli albori: man mano che la tecnologia matura, queste cifre dovrebbero scendere drasticamente grazie a tecniche come il calcolo parallelo, l’abbreviazione dei percorsi errati e il ritorno ai modelli specializzati più leggeri.

Come sottolineava il nostro primo articolo, il vero rischio è la crescita esponenziale “generalista”. Ma se le imprese adotteranno modelli su misura, capaci di rispondere a compiti specifici con potenza contenuta, i benefici energetici saranno immediati.

   

Chip più efficienti

La seconda leva per migliorare l’efficienza è l’hardware: i chip su cui i modelli girano.

Oggi, le GPU ad alte prestazioni sono sempre più potenti, ma anche assetate di energia. Tuttavia, come evidenzia Naveen Verma, fondatore della startup EnCharge AI, questa corsa non è sostenibile. Servono nuovi paradigmi.

EnCharge sta sviluppando chip analogici che elaborano dati con una logica “in memoria”, senza muoverli continuamente. Rispetto ai chip digitali, questi dispositivi consumano molto meno, anche se finora erano stati frenati da problemi di precisione. Ora, grazie a innovazioni nate nei laboratori di Princeton, stanno diventando competitivi.

Tra le soluzioni emergenti ci sono anche i chip neuromorfici (che imitano l’efficienza del cervello) e quelli ottici, che usano la luce al posto degli elettroni per ridurre le perdite di energia.

IBM, ad esempio, ha sviluppato un commutatore ottico che migliora dell’80% l’efficienza nella trasmissione dati nei server. Queste tecnologie potrebbero rivoluzionare l’equilibrio energetico dell’IA.

Data center più sostenibili

Un terzo ambito strategico è il raffreddamento dei data center, che oggi assorbe quasi metà dell’energia complessiva impiegata nell’IA.

Con chip sempre più densi e potenti, le soluzioni tradizionali (aria forzata) non bastano più. Si passa dunque all’uso dell’acqua, ma con accortezze per limitarne l’impatto ambientale.

In Danimarca, il calore dei data center viene recuperato per riscaldare le case. A Parigi è stato impiegato per le piscine olimpiche. L’acqua può anche diventare una forma di batteria termica: raffreddata con energie rinnovabili nei momenti di bassa domanda, e usata poi per mitigare i picchi.

La startup Phononic propone microchip termoelettrici che regolano finemente la temperatura all’interno dei server, attivandosi solo dove e quando serve, migliorando l’efficienza globale del sistema di raffreddamento.

Come sottolineato nel nostro primo articolo, la criticità dei data center non è solo elettrica, ma anche idrica. Tecnologie intelligenti per il riuso del calore e il raffreddamento modulare sono essenziali per evitare lo squilibrio delle risorse locali.

   

Costi e clima possono finalmente convergere

La quarta e forse più potente ragione di ottimismo riguarda l’economia. A differenza di molte altre sfide ambientali, nell’IA efficienza significa risparmio immediato.

Lo afferma anche Christina Shim, Chief Sustainability Officer di IBM: le aziende si stanno orientando verso modelli più piccoli non solo per motivi ambientali, ma perché è semplicemente più conveniente. Ridurre il consumo energetico, in un settore dove l’energia è il costo principale, è la chiave per sopravvivere sul mercato.

Il parallelismo con l’esplosione di Internet e dei personal computer è utile: anche allora, l’uso è aumentato, ma i consumi unitari si sono ridotti. Lo stesso può accadere ora.

Come scrive Heaven, forse alla fine sarà il capitalismo a salvarci. O almeno, a renderci più efficienti per motivi economici. Una speranza concreta, se accompagnata da scelte normative intelligenti.

   

Riflessioni finali: tra ottimismo tecnico e responsabilità politica

Nel nostro primo articolo, abbiamo descritto una “tempesta perfetta” in formazione: un’onda crescente di domanda energetica alimentata dall’intelligenza artificiale, dall’elettrificazione della mobilità, dalla sostituzione dei sistemi di riscaldamento con pompe di calore, dall’espansione dei data center e dalla corsa alla supremazia tecnologica. In quel contesto, la questione centrale era l’insostenibilità di un’elettrificazione senza regole e senza priorità.

Oggi, grazie all’indagine condotta dal MIT Technology Review, possiamo leggere anche il lato opposto della medaglia: se l’IA è causa di tensioni energetiche, può anche diventare terreno di sperimentazione per una nuova efficienza, una leva potente per innovare, semplificare e ridurre i consumi.

Ma non basta sperare che l’ottimizzazione tecnica accada spontaneamente. Serve una visione. Serve una direzione.

    

⚠️ La miopia normativa: regoliamo i contenuti, non i processi

Finora, i principali regolamenti sull’Intelligenza Artificiale – dall’AI Act europeo alle policy aziendali – si sono concentrati quasi esclusivamente sui contenuti: l’etica dei dati, la trasparenza degli algoritmi, il controllo sugli output. Tutto giusto, tutto necessario.

Ma manca un pezzo fondamentale: nessuna norma, oggi, impone che l’intelligenza artificiale sia sostenibile anche nella sua produzione.

Eppure, lo abbiamo visto: le infrastrutture che sorreggono l’IA – modelli, chip, data center – sono asset energivori. Ignorare questo aspetto significa guardare solo la superficie della questione etica, dimenticando che anche la CO₂ è un contenuto.

Serve un regolamento – proprio come il CBAM per le importazioni industriali – che imponga trasparenza e limiti energetici anche ai modelli IA. Se vogliamo accogliere IA sviluppate in altri paesi, queste devono rispettare standard minimi di sostenibilità energetica, non solo di “eticità semantica”.

     

🌍 Verso un nuovo paradigma: giustizia ecologica per l’algoritmo

La lezione è chiara: non possiamo parlare di IA etica senza parlare del suo impatto ambientale. Un modello costruito su combustibili fossili e addestrato a colpi di miliardi di wattora non può essere considerato neutro, anche se è accurato, equo e trasparente nei risultati.

Abbiamo bisogno di una nuova definizione di intelligenza artificiale responsabile: una che includa la giustizia ecologica tra i criteri fondamentali, e che veda nel risparmio energetico non solo un’opportunità tecnica, ma un imperativo morale.

   

🌀 Chiudere il cerchio: dalla tecnica alla politica

L’articolo del MIT ci invita a non arrenderci all’inerzia dell’insostenibile, ma a cogliere le innovazioni in atto come segnali di possibilità. Tuttavia, perché queste possibilità si traducano in realtà sistemiche, serve un salto politico: dalla retorica etica alla regolazione ambientale.

Se l’intelligenza artificiale sarà il cuore pulsante della nostra società digitale, allora abbiamo il dovere di garantirle un metabolismo compatibile con i limiti del pianeta.

Perché non basta che l’IA “non faccia del male”: deve imparare anche a consumare meno. E questa, sì, è una questione di civiltà.

AI - Intelligenza Artificiale

Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.

Scopri di più

Sostenibilità

Con questo Topic riportiamo quanto pubblichiamo su quello che riguarda il tema della sostenibilità: gli accordi internazionali e nazionali, i protocolli di certificazione energetici ambientali, le news e gli approfondimenti scientifici, i commenti.

Scopri di più

Leggi anche