Negli ultimi anni ChatGPT è diventato uno strumento quotidiano per milioni di persone: scrive testi, genera codice, traduce, risponde a domande. Ma c’è un aspetto meno visibile che sta attirando sempre più attenzione: il suo consumo energetico e idrico. Quanta energia serve per alimentare l’Intelligenza Artificiale (AI)? E qual è l’impatto ambientale reale dei modelli come ChatGPT?
Indice dei contenuti
L’energia per una conversazione con l’AI
Ogni volta che un utente invia una richiesta a ChatGPT, il sistema elabora milioni di calcoli nei data center di OpenAI.
Secondo diverse stime, una singola query a ChatGPT può consumare fino a 0,3 wattora di energia elettrica — l’equivalente di una lampadina LED accesa per circa un minuto. Può sembrare poco, ma moltiplicato per centinaia di milioni di richieste giornaliere il consumo cresce in modo esponenziale.
Il cuore del problema è l’infrastruttura necessaria a far funzionare questi sistemi: enormi data center alimentati 24 ore su 24, dotati di server ad alte prestazioni e sistemi di raffreddamento che assorbono grandi quantità di energia elettrica e acqua.
Consumo energetico di ChatGPT
Le stime più recenti indicano che ChatGPT consuma circa 564 megawattora al giorno, una quantità sufficiente a coprire il fabbisogno energetico annuale di oltre 37 abitazioni italiane se ogni cittadino lo utilizzasse una sola volta.
Si tratta di un consumo impressionante, che evidenzia l’impatto crescente dell’AI sui sistemi energetici mondiali.
Sam Altman, CEO di OpenAI, ha dichiarato che una quindicina di richieste a ChatGPT impiegano “l’acqua contenuta in un cucchiaino da tè” solo per il raffreddamento dei server. Ma se si considera il numero di richieste globali, si parla di milioni di litri d’acqua al giorno evaporati per mantenere le infrastrutture operative.
Il consumo di acqua
Per garantire il corretto funzionamento, i data center devono mantenere temperature costanti.
In media, per ogni kilowattora di elettricità consumata dai server, viene impiegato un litro d’acqua per il raffreddamento.
Le strutture più grandi possono arrivare a utilizzare oltre 20.000 litri d’acqua al giorno, un valore che varia a seconda del clima e della tecnologia di raffreddamento adottata.
Questo significa che, oltre al consumo energetico, ChatGPT contribuisce a un significativo impatto sui consumi idrici globali. In aree già colpite da stress idrico — come alcune zone degli Stati Uniti dove sorgono i data center — questo può diventare un fattore critico.
Impatto ambientale dell’AI
Il consumo elettrico di ChatGPT non si traduce solo in costi economici, ma anche in emissioni di CO₂.
Ogni wattora generato da fonti non rinnovabili comporta emissioni che, sommate su scala globale, fanno dell’AI una delle nuove frontiere del dibattito ambientale.
Si stima che l’impronta di carbonio dell’intero ecosistema AI possa presto superare quella dell’aviazione civile, se non verranno adottate soluzioni di efficienza energetica e alimentazione da fonti rinnovabili.
Verso un’AI più sostenibile
Di fronte a questi numeri, cresce l’interesse verso soluzioni di efficienza energetica per l’AI.
Tra le principali strategie in corso:
- utilizzo di energie rinnovabili per alimentare i data center;
- ottimizzazione degli algoritmi per ridurre la potenza di calcolo necessaria;
- sviluppo di sistemi di raffreddamento a ciclo chiuso con minor impiego di acqua;
- spostamento dei data center in aree fredde, per ridurre la domanda di energia termica.
Le grandi aziende tecnologiche, tra cui OpenAI, Google e Microsoft, stanno già investendo in progetti di AI sostenibile, ma la sfida resta aperta: rendere compatibile la crescita dell’intelligenza artificiale con i limiti del pianeta.
Consumo consapevole delle risorse naturali
L’uso dell’AI pone una questione cruciale: quanto siamo disposti a “pagare” in termini di risorse naturali per ottenere risposte istantanee e automazione?
Ogni interazione con ChatGPT ha un costo ambientale invisibile, fatto di energia, acqua e CO₂, che richiede consapevolezza da parte di utenti e aziende.
Sapere quanto consuma l’AI è il primo passo per ridurre l’impatto ambientale digitale.
Proprio come accade per gli elettrodomestici o gli impianti di illuminazione, anche le tecnologie digitali devono essere progettate e utilizzate in modo più efficiente.
L’energia del futuro, intelligente e sostenibile
L’intelligenza artificiale rappresenta una rivoluzione straordinaria, ma anche una sfida che ci obbliga a ripensare il nostro rapporto con l’energia e con le risorse del pianeta.
Dietro ogni innovazione tecnologica, infatti, si nasconde un fabbisogno energetico sempre più complesso: alimentare server, data center, reti di calcolo globale richiede una quantità crescente di energia elettrica, acqua e infrastrutture di raffreddamento.
Rendere questi sistemi più efficienti e sostenibili non è soltanto una questione tecnica, ma una responsabilità ambientale collettiva.
La transizione verso un modello di intelligenza artificiale a basso impatto ambientale passa necessariamente per una maggiore consapevolezza e per la diffusione delle energie rinnovabili.
È in questo scenario che si inserisce l’impegno di Energit, da oltre vent’anni punto di riferimento nel settore dell’energia pulita in Sardegna e in Italia.
L’azienda promuove ogni giorno soluzioni che combinano innovazione tecnologica, efficienza e rispetto per l’ambiente, accompagnando famiglie, imprese e pubbliche amministrazioni verso un utilizzo più intelligente e sostenibile dell’energia.
Dalla produzione fotovoltaica ai sistemi di monitoraggio dei consumi, dalle forniture 100% green ai servizi di efficienza energetica, Energit crede in un futuro in cui la tecnologia non consuma il pianeta, ma lo protegge.
Un futuro in cui anche l’intelligenza artificiale può diventare parte della soluzione, non del problema.
Perché il vero progresso nasce solo quando energia e intelligenza lavorano insieme per un mondo più sostenibile.