AI - Intelligenza Artificiale | Energia
Data Pubblicazione:

IA, energia e potere: dentro l’inchiesta del MIT Technology Review sul futuro (opaco) dell’intelligenza artificiale

L’intelligenza artificiale sta trasformando il nostro modo di vivere, lavorare e comunicare. Ma a quale costo energetico? Un’inchiesta approfondita del MIT Technology Review rivela il lato nascosto dell’AI: consumi elettrici esplosivi, emissioni in crescita e una totale opacità da parte delle Big Tech. Eppure, la regolamentazione globale guarda solo ai contenuti, ignorando l’etica della produzione.

Articolo basato sull’indagine firmata da James O’Donnell e Casey Crownhart, pubblicata il 20 maggio 2025 su MIT Technology Review.

Oltre il prompt: quanto consuma davvero l’Intelligenza Artificiale?

Ogni volta che chiediamo qualcosa a un chatbot, generiamo un’immagine con l’intelligenza artificiale o avviamo un video creato da un modello generativo, attiviamo una catena invisibile ma concreta di consumi energetici.

Una rete di calcolo globale, composta da chip specializzati, data center, raffreddamento attivo e sistemi di alimentazione continua entra in funzione per trasformare un prompt in contenuto.

Quella che sembrava una delle rivoluzioni più leggere e immateriali della storia dell’umanità si sta rivelando, invece, una delle più pesanti dal punto di vista energetico.

E finora, il dibattito su questa “materialità dell’IA” è stato confuso, privo di dati solidi, e spesso deragliato da speculazioni.

   

Quanta energia succhia l’AI: una domanda semplice, una risposta complicata

L’inchiesta di James O’Donnell e Casey Crownhart parte da un’idea in apparenza semplice: quanto consuma ogni singola richiesta all’IA? Quanto energia viene effettivamente utilizzata per scrivere un testo, creare un’immagine, generare un video?

Ma ben presto emerge che la risposta non è né semplice né stabile. Le variabili in gioco sono numerose:

  • Il tipo di modello (linguistico, visivo, video)
  • La sua dimensione, cioè il numero di parametri (da pochi milioni a oltre un trilione)
  • Il tipo di output richiesto
  • Il data center specifico in cui la richiesta viene processata
  • Il momento della giornata
  • La rete elettrica locale a cui quel centro è connesso
  • La fonte energetica prevalente in quel momento (solare? gas? carbone?)

Tutti questi elementi rendono impossibile stabilire un valore standard e rappresentano la prima grande criticità emersa dal lavoro del MIT Technology Review:

   

I consumi energetici dell’AI: l’assoluta opacità del sistema.

I modelli chiusi sono una “scatola nera”

La maggior parte dei modelli oggi in uso – come ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) – sono modelli chiusi (closed-source).

Le aziende che li producono non rivelano il numero di parametri, non dichiarano l’hardware utilizzato, non comunicano l’ubicazione dei data center, e soprattutto non forniscono dati puntuali sull’energia utilizzata per le singole inferenze.

Secondo Boris Gamazaychikov, responsabile della sostenibilità IA per Salesforce:

“I fornitori di modelli chiusi ci offrono una vera scatola nera. Senza una maggiore trasparenza, il problema non è solo che le stime sono scarse: è che non abbiamo quasi nulla su cui basarci.”

Una delle poche iniziative di valutazione energetica è l’AI Energy Score, sviluppata da Sasha Luccioni di Hugging Face.

Ma le aziende devono aderire volontariamente.

Fino a oggi, pochissimi lo hanno fatto.

   

L’importanza dei modelli open-source

Per superare questi limiti, l’inchiesta si è concentrata su modelli open-source, scaricabili e misurabili:

  • Meta LLaMA 3.1 per i testi
  • Stable Diffusion 3 Medium per le immagini
  • CogVideoX per i video

Misurazioni indipendenti hanno permesso di raccogliere dati reali, ma anche questi richiedono stime correttive: ad esempio, per stimare il consumo totale, gli esperti hanno suggerito di raddoppiare l’energia utilizzata dalla sola GPU, per tenere conto del contributo di CPU, sistemi di raffreddamento, ventilazione e alimentatori.

   

Una questione cruciale: l’inferenza, non l’addestramento

Un altro elemento fondamentale: non è l’addestramento il vero punto critico, ma l’inferenza – cioè l’uso quotidiano e reiterato del modello una volta distribuito.

Come spiega Esha Choukse, ricercatrice di Microsoft Azure:

“Per qualsiasi azienda, il guadagno arriva solo con l’inferenza.”

E oggi si stima che l’80-90% della potenza computazionale consumata dall’IA serva proprio per l’inferenza, cioè per produrre risposte in tempo reale.

   

In sintesi: i limiti che oscurano il futuro

  • Non esiste un dato stabile e condiviso sull’energia consumata da una singola query
  • I modelli chiusi non forniscono dati verificabili
  • Anche le stime più solide non bastano a pianificare il futuro

Questo è il punto di partenza dell’inchiesta. Un punto che solleva una domanda cruciale per il settore delle costruzioni, dell’energia, dell’urbanistica e delle politiche pubbliche:

Come possiamo integrare le infrastrutture IA nei sistemi energetici se non ne conosciamo il fabbisogno?

     

Dal prompt al kilowattora: quanto consuma ogni tipo di contenuto generato dall’IA?

Una delle intuizioni più chiare e sorprendenti dell’indagine è che non tutte le interazioni con l’intelligenza artificiale sono uguali.

Generare un testo, un’immagine o un video richiede quantità di energia molto diverse.

La scala di consumo è esponenziale e riflette non solo la complessità tecnica dell’output, ma anche l’architettura computazionale dei modelli usati.

   

🧠 Modelli testuali: piccoli consumi, grandi numeri

L’analisi inizia dai modelli di linguaggio.

Il team ha testato due versioni open-source di Meta LLaMA 3.1:

  • LLaMA 3.1 8B (8 miliardi di parametri)
    • Energia per risposta: 57 joule
    • Stima complessiva (con raffreddamento e altri carichi): 114 joule
  • LLaMA 3.1 405B (405 miliardi di parametri)
    • Energia per risposta: 3.353 joule
    • Stima complessiva: 6.706 joule

La differenza è notevole: il modello più grande richiede circa 60 volte più energia per una risposta.

Eppure, anche il dato maggiore è modesto in valore assoluto: equivale a percorrere circa 120 metri su una e-bike, o far funzionare un microonde per 8 secondi.

Ma è l’effetto moltiplicativo che conta: milioni di richieste al giorno, miliardi al mese, spesso per compiti apparentemente banali, come spiegare una barzelletta o scrivere una bio professionale.

Inoltre, il tipo di prompt fa la differenza: risposte semplici consumano fino a 9 volte meno rispetto a richieste più complesse o creative.

   

Generazione di immagini: la diffusione consuma di più

Passando alla generazione di immagini, cambia completamente l’architettura computazionale.

I modelli utilizzano un sistema chiamato diffusione, in cui una massa di “rumore visivo” viene trasformata gradualmente in un’immagine riconoscibile, grazie ai pattern appresi durante l’addestramento.

Il modello analizzato è Stable Diffusion 3 Medium, con 2 miliardi di parametri.

  • Immagine standard (1024x1024 px, 25 step): 1.141 joule (GPU) → 2.282 joule stimati
  • Immagine migliorata (50 step): ~4.402 joule

Equivale a 250 piedi su una e-bike, o 5,5 secondi di microonde acceso.

In questo caso, a differenza del testo, il tipo di immagine non influisce (es. un astronauta su Marte o un cane al guinzaglio): contano invece la risoluzione, la dimensione del modello e il numero di step.

Più alta la qualità, più energia serve.

  

🎥  Il salto dimensionale: il caso dei video

La generazione video rappresenta il picco assoluto di consumo, anche tra i modelli open-source.

Il modello testato è CogVideoX, sviluppato da Zhipu AI con l’Università Tsinghua.

  • Versione iniziale (8 frame/sec, bassa qualità): 109.000 joule
  • Versione aggiornata (16 fps, 5 sec): ~3.400.000 joule

L’equivalente energetico di percorrere 61 chilometri su una e-bike o di tenere acceso un microonde per oltre un’ora

È oltre 700 volte il consumo necessario per generare un’immagine, e decine di migliaia di volte quello di un testo.

Eppure, questa è solo la versione open-source: i modelli chiusi come Sora (OpenAI) o Veo (Google) producono video più lunghi e ad alta definizione, con consumi probabilmente molto più elevati.

   

💡 Oltre il consumo: una questione di scala e replicabilità

Per ora, l’uso di IA video generativa è limitato a utenti specializzati o early adopters.

Ma i segnali indicano un cambio imminente:

  • Funzionalità video integrate nei social
  • Esperimenti di “agenti video” per assistenti vocali
  • Produzione di contenuti commerciali automatizzati

E se l’accesso a questi strumenti diventerà economico e diffuso, potremmo trovarci davanti a una valanga di contenuti generativi, con un impatto energetico sistemico.

 In sintesi: dal testo al video, una scala logaritmica

Tipo di contenuto
Energia stimata per unità
Equivalente pratico
Testo (LLaMA 8B)
114 joule
1,8 metri in e-bike
Testo (LLaMA 405B)
6.706 joule
120 metri in e-bike
Immagine (HQ)
4.402 joule
250 piedi in e-bike
Video (5 sec, 16 fps)
3.400.000 joule
38 miglia in e-bike

La differenza tra questi valori non è lineare, ma esponenziale. Ed è proprio questa scala, invisibile e in crescita rapida, a preoccupare sempre più esperti.

   

L’energia invisibile: da dove arriva e chi la paga?

Se il consumo energetico di una singola interazione con l’IA può sembrare minimo, la vera domanda da porsi è: quale energia alimenta questi modelli?

Perché nel momento in cui le query si moltiplicano per miliardi e l’uso dell’IA entra in ogni interstizio della vita digitale, ciò che alimenta i data center non è più un dettaglio tecnico, ma una questione ambientale, politica ed economica.

   

⚡ Il dato chiave: intensità carbonica dell’elettricità

La metrica più rilevante per capire l’impatto ambientale dei data center è l’intensità carbonica, ovvero quanti grammi di CO₂ vengono emessi per ogni kilowattora (kWh) di elettricità consumata.

Secondo uno studio preliminare della Harvard T.H. Chan School of Public Health, l’intensità media dell’elettricità usata nei data center USA è del 48% superiore rispetto alla media nazionale.

Le ragioni sono due:

  1. Localizzazione dei data center in aree con reti “sporche”, come la Mid-Atlantic Region (Virginia, West Virginia, Pennsylvania), dove il carbone e il gas dominano la produzione elettrica.
  2. Funzionamento continuo dei server: 24/7, 365 giorni all’anno, anche quando le fonti rinnovabili non sono disponibili.

“I data center per l’IA hanno bisogno di energia costante, non intermittente,” spiega Rahul Mewawalla, CEO della Mawson Infrastructure Group.

“Non possono fare affidamento solo su fotovoltaico ed eolico.”

    

🌍 Dove produrre l’energia. Quando e dove fa la differenza

L’inchiesta mostra come l’impatto ambientale di una stessa query varia notevolmente a seconda di dove e quando viene processata.

Un esempio emblematico:

  • Una serie di richieste IA (testo, immagine, video) per un totale di 2,9 kWh
    • In California: ~650 grammi di CO₂
    • In West Virginia: oltre 1.150 grammi

In aprile 2024, la rete elettrica californiana oscillava tra meno di 70 g/kWh nel pomeriggio (grazie al solare) e oltre 300 g/kWh durante la notte.

Il carico ambientale dell’IA non è fisso, ma dipende dalla posizione geografica, dall’ora e dal mix energetico disponibile.

   

🔌 Il futuro si alimenta a gas. Per ora.

Le grandi aziende tecnologiche, a partire da Meta, Amazon, Google e OpenAI, hanno annunciato intenzioni ambiziose verso il nucleare. Hanno sottoscritto un impegno per triplicare la capacità nucleare mondiale entro il 2050.

Ma la realtà, oggi, è molto diversa:

  • Nel 2024, il 60% dell’elettricità statunitense proveniva ancora da fonti fossili (gas e carbone)
  • Solo il 20% dal nucleare
  • Il resto da rinnovabili (non sempre disponibili)
  • In Virginia, lo stato con più data center al mondo, oltre il 50% dell’energia proviene dal gas naturale

E nuove centrali nucleari richiedono decenni per entrare in funzione.

   

🛰️ Musk, gas e generatori “fantasma”

Ad aprile 2024, un caso emblematico ha scosso il settore: tramite immagini satellitari, è emerso che il supercomputer center X di Elon Musk, nei pressi di Memphis, utilizza decine di generatori a metano.

Secondo la Southern Environmental Law Center, questi generatori non sono approvati dai regolatori energetici e violano il Clean Air Act.

Il paradosso: una tecnologia pensata per “automazione intelligente” che si appoggia a fonti inquinanti e non regolamentate per garantire continuità operativa.

    

📉 Trasparenza cercasi

Il Lawrence Berkeley National Laboratory, nella sua analisi del 2024, è stato netto:

Le informazioni divulgate da aziende tecnologiche, operatori di data center, utility e costruttori di hardware sono insufficienti.

Il loro report suggerisce soluzioni praticabili:

  • Condivisione anonima di dati aggregati
  • Cooperazione pubblico-privato su standard di disclosure

Ma al momento le aziende non collaborano.

E questo impedisce ogni forma di pianificazione sostenibile, sia per le infrastrutture elettriche che per le comunità locali.

📌 In sintesi: un sistema che consuma, inquina e non parla

  • I data center crescono senza una rete elettrica all’altezza
  • Le energie utilizzate sono, per ora, prevalentemente fossili
  • Le aziende non rendono noti i dati sui consumi
  • Il cittadino non ha strumenti per valutare l’impatto ambientale reale

La domanda diventa inevitabile:

Perché il futuro digitale, definito “intelligente”, sta crescendo con pratiche energetiche tanto opache quanto antiquate?

   

L’illusione del progresso: chi pagherà il conto dell’intelligenza artificiale?

Dietro l’entusiasmo per l’intelligenza artificiale – l’efficienza, l’innovazione, la produttività – si cela una domanda rimossa dal dibattito pubblico:

chi finanzia realmente questa transizione?

Non ci riferiamo solo al capitale privato che alimenta server farm, chip e modelli, ma ai costi sistemici ricadenti su cittadini, territori e comunità locali, spesso all’oscuro del ruolo che stanno giocando in questa trasformazione epocale.

    

🧾 Un’infrastruttura pubblica (ma al servizio dei privati)

Nel marzo 2025, un’indagine condotta dall’Electricity Law Initiative di Harvard ha analizzato gli accordi tra utility elettriche e aziende tecnologiche come Meta, Google e Microsoft, per la realizzazione e alimentazione di nuovi data center IA.

Il risultato? In molti casi, le aziende ottengono:

  • Tariffe scontate sull’elettricità (Power Purchase Agreements)
  • Clausole di rischio trasferite sulle utenze
  • Contratti blindati con copertura pubblica in caso di fallimento dei volumi previsti

“È possibile che i cittadini finiscano per sovvenzionare le bollette elettriche delle Big Tech,” spiega Eliza Martin, legal fellow dell’Environmental and Energy Law Program di Harvard.

   

📉 Il caso Virginia: 37,50 dollari in più in bolletta

Un rapporto della legislatura statale della Virginia – lo stato con la maggiore densità di data center al mondo – ha stimato che gli utenti residenziali potrebbero pagare fino a 37,50 dollari al mese in più nelle bollette elettriche, per coprire l’espansione dell’infrastruttura IA.

Non si tratta di una tassa diretta, ma dell’effetto cumulativo di:

  • Agevolazioni concesse alle aziende
  • Sviluppi sovradimensionati rispetto alla domanda effettiva
  • Costi fissi della rete trasferiti sulle utenze tradizionali

In parole semplici: se il centro dati non funziona come previsto, la bolletta la paghi tu.

  

🏗️ Investimenti record, rischio condiviso?

Il paradosso si fa ancora più evidente considerando i numeri annunciati:

  • 500 miliardi di dollari investiti da OpenAI, SoftBank, Oracle e MGX per costruire nuovi data center in USA entro il 2028
  • Il primo cantiere a Abilene, Texas prevede otto edifici grandi quanto stadi da baseball
  • OpenAI suggerisce di costruire 50 GW di capacità elettrica dedicata entro il 2027

Eppure, le stesse aziende:

  • non rivelano i dati di consumo dei loro modelli
  • non partecipano alla costruzione diretta della rete
  • non assumono rischi sistemici, che restano in carico agli enti pubblici o alle utility

   

🧠 L’IA è ovunque. Anche quando non la cerchi.

Il punto critico è che non puoi scegliere se partecipare o meno a questo sistema.

L’IA è già integrata:

  • Nelle chat di assistenza clienti
  • Nelle funzioni “smart” delle app
  • Nelle immagini suggerite dai motori di ricerca
  • Nei servizi pubblici, sanitari, scolastici

Come scrive Sasha Luccioni:

“Gli strumenti di IA generativa ci vengono praticamente imposti. Diventa sempre più difficile sottrarsi, o compiere scelte consapevoli su energia e clima.”

    

📌 In sintesi: un sistema privato, sostenuto da fondi pubblici

Aspetto
Aziende Big Tech
Cittadini/utenti
Costruzione dei modelli


Dati sui consumi


Agevolazioni fiscali


Bollette maggiorate


Libertà di scelta


In questo scenario, la smart revolution rischia di essere una “costruzione opaca” in cui il rischio è socializzato e il beneficio è privatizzato.

È lecito chiedersi: l’IA migliora la società o ne accentua le disuguaglianze sistemiche?

   

Il futuro davanti a noi: elettrificazione totale, IA ovunque e una tempesta perfetta all’orizzonte

Dopo mesi di indagine, James O’Donnell e Casey Crownhart, sulle pagine del MIT Technology Review, sono arrivati a una conclusione tanto lucida quanto allarmante:

Non siamo pronti. Non energeticamente, non politicamente, non culturalmente.

   

⚠️ I dati del 2024: un allarme reale

Nel 2024, i data center statunitensi hanno consumato 200 terawattora (TWh) di elettricità, di cui 53–76 TWh attribuibili all’IA.

Entro il 2028, le stime parlano di un consumo IA compreso tra 165 e 326 TWh all’anno.

L’equivalente di fornire energia al 22% delle case americane, o di generare emissioni pari a 300 miliardi di miglia in auto.

Non è una crescita lineare. È una curva esponenziale.

E a spingerla non è l’adozione graduale da parte degli utenti, ma i piani industriali delle Big Tech, che stanno già costruendo il futuro senza aspettare che sia discusso.

   

📈 L’accelerazione senza freni: IA + mobilità + riscaldamento = overload

Nel frattempo, sta avvenendo un altro fenomeno colossale e silenzioso: lo spostamento di interi settori verso l’elettricità.

  • Mobilità elettrica: veicoli personali, flotte aziendali, logistica urbana
  • Riscaldamento elettrico: pompe di calore in sostituzione del gas
  • Industria: elettrificazione dei processi produttivi e dei cicli di raffreddamento
  • Agricoltura e automazione: robot, sensori, analisi dati
  • Domotica: sistemi intelligenti per comfort, sicurezza e gestione energetica

A questa transizione, necessaria per abbattere le emissioni da combustibili fossili, si somma la rivoluzione dell’IA, che chiede anch’essa energia, in quantità, in continuità, ovunque.

Stiamo costruendo una tempesta perfetta:

tutti i settori convergono verso l’elettricità, ma senza una rete pronta, senza pianificazione, senza giustizia distributiva.

    

🧱 Costruire senza visione: il nodo delle infrastrutture

Nel loro rapporto, i ricercatori del Lawrence Berkeley National Laboratory sono netti:

“La crescita dei data center IA sta avvenendo con scarsa considerazione su come integrare questi nuovi carichi con l’espansione della generazione e della trasmissione elettrica.”

Il risultato è una rete impreparata, che rischia:

  • blackout locali
  • squilibri di tensione
  • esclusione delle fonti rinnovabili nei momenti di picco
  • trasferimenti di costo insostenibili sulle famiglie

E soprattutto: una perdita di controllo pubblico su una trasformazione che è al tempo stesso tecnologica, infrastrutturale e democratica.

La conclusione della MIT Technology Review è cristallina:

“L’intelligenza artificiale non sta solo trasformando la tecnologia. Sta plasmando la rete elettrica e il mondo che ci circonda.”

E la domanda non è più se usare o meno l’IA.

È in quale quadro energetico, normativo e culturale decideremo di farlo.

   

⚖️ Etica dei contenuti sì, etica della produzione no. Il grande vuoto normativo

In tutto il mondo — dall’AI Act europeo ai framework statunitensi, fino ai codici etici dell’OCSE e delle Big Tech — la regolazione dell’intelligenza artificiale si concentra ossessivamente sul contenuto:

  • Discriminazione algoritmica
  • Bias e trasparenza nelle decisioni
  • Protezione dei dati e privacy
  • Tutela della creatività umana e dei diritti d’autore

Tutto giusto. Tutto necessario. Ma non basta.

Come dimostrato dall’inchiesta di MIT Technology Review, il vero costo dell’intelligenza artificiale non è solo etico o cognitivo. È energetico, ambientale, strutturale. È un costo sistemico, che riguarda l’infrastruttura materiale della conoscenza digitale.

Eppure, nessun regolamento — né europeo, né extraeuropeo — chiede oggi trasparenza sulle emissioni, sull’origine dell’energia, sull’impronta di carbonio dei modelli. Nessuna autorità impone obblighi di disclosure comparabili a quelli chiesti ad altri settori ad alto impatto.

Se una caldaia o una lampadina deve rispettare una classe energetica.

Se un prodotto extra-UE deve rispettare la Carbon Border Adjustment Mechanism (CBAM).

Perché mai un modello linguistico con un miliardo di query al giorno può entrare nel mercato europeo senza dichiarare quanta CO₂ produce e da quali fonti si alimenta?

   

🛡️ Una proposta: inserire l’etica ambientale dell’IA nei regolamenti europei

Serve un cambio di paradigma: l’etica dell’intelligenza artificiale non può fermarsi al contenuto. Deve includere la sostenibilità della sua produzione.

Chi intende portare l’IA nel nostro mercato deve:

  • Rendere pubbliche le metriche ambientali (consumo energetico, carbon intensity, uso di fonti rinnovabili)
  • Garantire soglie minime di efficienza energetica
  • Dimostrare l’uso prevalente o esclusivo di fonti verdi
  • Aderire a standard trasparenti e verificabili, come l’AI Energy Score o un rating europeo equivalente

L’Europa ha già dimostrato di saper guidare il mondo su standard ambientali e digitali. Ora deve unirli.

    

🌍 Perché non può esserci IA etica se è energeticamente opaca

Ogni testo generato, ogni immagine sintetizzata, ogni video costruito dal nulla, è anche un atto energetico.

Regolare solo la superficie — le parole, le immagini, i dati — e ignorare il motore che li produce è una forma di miopia normativa che non possiamo più permetterci.

Una vera etica dell’IA non si limita a ciò che l’intelligenza artificiale dice.

Inizia da come, dove e con quanta energia è stata costruita la sua voce.

   

📣 Call to action: serve una nuova alleanza tra tecnologia e progetto

Come tecnici, progettisti, ingegneri, urbanisti, policy maker, non possiamo più ignorare l’impronta reale del digitale.

L’intelligenza artificiale non è un’app: è una nuova infrastruttura del vivente.

E come ogni infrastruttura, richiede:

  • trasparenza sui numeri
  • governance pubblica delle reti
  • scelte progettuali integrate su energia, suolo, città
  • valutazioni ambientali sistemiche, non parziali

Il futuro si costruisce ora. E l’intelligenza artificiale, se non interrogata con lucidità e rigore, non ci renderà più intelligenti. Solo più dipendenti.


📘 Fonte

Articolo ispirato all’inchiesta:

“We did the math on AI’s energy footprint. Here’s the story you haven’t heard”

di James O’Donnell e Casey Crownhart – MIT Technology Review, 20 maggio 2025

🔗 technologyreview.com

AI - Intelligenza Artificiale

Tutto sull’intelligenza artificiale nel settore AEC: progettazione, BIM, cantiere, manutenzione e gestione tecnica. Scopri come l’AI sta cambiando il lavoro dei professionisti delle costruzioni.

Scopri di più

Energia

News e approfondimenti sul tema dell’energia: produzione, gestione, impatto sulla sostenibilità, innovazioni.

Scopri di più

Leggi anche