
Le dichiarazioni di Sam Altman, CEO di OpenAI, riaccendono il dibattito sull’impronta ecologica dei data center. Tra smentite sui consumi idrici, allarme energia e un controverso paragone con il cervello umano, la comunità scientifica invita a distinguere i fatti dalle narrazioni sensazionalistiche.
L’impatto ambientale dell’intelligenza artificiale è tornato al centro del dibattito pubblico in seguito alle recenti dichiarazioni di Sam Altman, CEO di OpenAI, rilasciate durante la sua visita in India per l’AI Impact Summitl summit (ospitato a New Delhi dal 16 al 20 febbraio 2026). Le parole del numero uno di ChatGPT hanno sollevato un polverone, toccando tre nervi scoperti del settore: il consumo idrico dei data center, il loro crescente fabbisogno energetico e un audace parallelo tra l’efficienza dell’AI e quella del cervello umano.
Ma cosa c’è di vero nelle affermazioni di Altman? Abbiamo interrogato la letteratura scientifica peer-reviewed per fare chiarezza, distinguendo tra dati consolidati, semplificazioni e affermazioni controverse.
«L’acqua è totalmente fake». Ma è davvero così?
La presa di posizione più netta di Altman ha riguardato il consumo d’acqua. “L’acqua è totalmente fake”, ha dichiarato, riferendosi alle voci, diventate virali, secondo cui ogni singola interazione con ChatGPT richiederebbe circa 17 galloni, equivalenti a 64 litri d’acqua. Una cifra che il CEO di OpenAI ha bollato come reliquia di un passato tecnologico superato. “Era vero. Usavamo il raffreddamento evaporativo nei data center, ma ora non lo facciamo più”, ha spiegato.
La scienza gli dà ragione, almeno in parte. La letteratura ingegneristica conferma che le nuove tecnologie di raffreddamento a liquido, in particolare i sistemi direct-to-chip a circuito chiuso, possono effettivamente eliminare il consumo idrico direttamente correlato alle operazioni di raffreddamento. Studi come quelli di Ebrahimi, Jones e Fleischer (2014) su Applied Thermal Engineering e di Gao et al. (2021) su IEEE Transactions dimostrano che queste soluzioni rappresentano la frontiera più avanzata per bilanciare efficienza termica e sostenibilità .
Tuttavia, definire il problema “totalmente fake” è una semplificazione eccessiva. La cifra di 64 litri per query, va detto, non trova alcun riscontro nella letteratura scientifica. Appare piuttosto come una stima sensazionalistica priva di fondamento. Ma il tema dell’impatto idrico complessivo rimane aperto. Uno studio di Siddik, Shehabi e Marston (2021) pubblicato su Environmental Research Letters ha analizzato l’impronta idrica dei data center statunitensi, evidenziando come la loro localizzazione in regioni con stress idrico rappresenti una criticità rilevante, indipendentemente dall’efficienza tecnologica delle singole strutture. In altre parole: se i nuovi data center sono più virtuosi, il loro numero crescente e la loro ubicazione possono comunque mettere a dura prova le risorse idriche locali.
Il vero nodo è l’energia: i dati allarmanti della ricerca
Se sul fronte dell’acqua Altman ha usato toni liquidatori, sul tema dell’energia il suo approccio è stato ben più cauto. “È giusto preoccuparsi del consumo energetico – non per singola query, ma in totale, perché il mondo sta usando così tanta AI”, ha riconosciuto.
Su questo punto, la comunità scientifica è unanime nel dargli ragione. Lo studio fondamentale di Masanet et al. (2020) su Science aveva già lanciato l’allarme: i guadagni di efficienza che hanno contenuto i consumi dei data center nel decennio scorso non sono garantiti per il futuro, specialmente con l’avvento di carichi di lavoro computazionalmente intensivi come l’AI generativa.
Le proiezioni più recenti dipingono uno scenario preoccupante. Secondo Andrae (2023) su Challenges, in uno scenario di crescita elevata il consumo elettrico globale dei data center potrebbe raggiungere tra gli 800 e i 1.300 TWh entro il 2030. Ancor più allarmanti i dati di Gupta et al. (2024) su Nature Electronics: gli autori quantificano l’impronta di carbonio del ciclo di vita dell’AI e concludono che, se l’adozione continuerà al ritmo attuale, l’impatto energetico aggregato potrebbe diventare paragonabile a quello di interi settori industriali entro la fine del decennio, rendendo indispensabile un ripensamento radicale delle strategie energetiche globali.
La soluzione proposta da Altman
“ accelerare la transizione verso fonti pulite come nucleare, eolico e solare ” è condivisibile sulla carta, ma la sfida tecnica rimane immane: i data center richiedono energia 24 ore su 24, sette giorni su sette, il che rende complessa l’integrazione con fonti intermittenti come solare ed eolico senza sistemi di accumulo su larga scala.
AI contro cervello umano: un paragone che non regge
L’argomentazione più controversa sollevata da Altman riguarda il confronto tra l’efficienza energetica dell’AI e quella del cervello umano, in risposta a un vecchio spunto di Bill Gates. Secondo il CEO di OpenAI, sarebbe ingiusto confrontare l’energia di training di un modello con una singola inferenza umana. “Ci vuole molta energia per addestrare un umano – ha detto – ci vogliono circa 20 anni di vita e tutto il cibo che mangi in quel periodo”. Il confronto corretto, sostiene, dovrebbe avvenire nella fase di inferenza e, misurato in questo modo, “probabilmente, l’AI ha già raggiunto l’uomo in termini di efficienza energetica”.
Un’affermazione audace, ma che la scienza smentisce clamorosamente.
I dati neuroscientifici sono chiari: il cervello umano consuma circa 20 Watt, un dato consolidato da studi classici come quello di Attwell e Laughlin (2001) su Journal of Cerebral Blood Flow & Metabolism.
Di fronte a questo, l’hardware AI attuale impallidisce. Merolla et al. (2014) su Science dimostrarono come anche i chip neuromorfici più avanzati, pur rappresentando un progresso notevole, fossero ancora lontani dall’eguagliare l’efficienza biologica. Roy, Jaiswal e Panda (2019) su Nature hanno quantificato il divario: tra hardware AI e cervello umano esiste una differenza di diversi ordini di grandezza, stimata tra 10^6 e 10^8 a seconda dei compiti. In parole povere, l’AI è da centomila a cento milioni di volte meno efficiente del cervello che cerca di emulare.
L’intero campo del neuromorphic computing, del resto, è nato proprio per tentare di colmare questa distanza. Se l’AI avesse già raggiunto l’efficienza umana, come sostiene Altman, l’intero settore di ricerca non avrebbe ragione di esistere.
Conclusioni: tra verità scientifiche e prospettive future
Alla luce dell’analisi della letteratura scientifica, il quadro che emerge è articolato. Sul consumo idrico, Altman ha ragione nel definire obsolete le cifre sensazionalistiche e nel puntare sulle nuove tecnologie di raffreddamento, ma la localizzazione dei data center in aree stressate idricamente rimane un problema aperto. La sua preoccupazione è pienamente allineata con le più autorevoli proiezioni scientifiche. Sul confronto con il cervello umano, invece, la sua posizione appare scientificamente insostenibile: i dati documentano un divario abissale che la ricerca sta cercando faticosamente di colmare.
Bio
Ed è proprio qui che si apre lo scenario più affascinante. Se il cervello umano è, come dimostrato, uno dei sistemi computazionali più efficienti ed energeticamente parsimoniosi esistenti in natura, la direzione da seguire potrebbe non essere quella di emularlo con il silicio, ma di utilizzare direttamente il substrato biologico per il calcolo. È l’ambito del biological computing, un campo di ricerca in rapida espansione che punta a sviluppare “bio computer” basati su neuroni viventi coltivati in laboratorio. Progetti pionieristici come la piattaforma Neuroplatform di FinalSpark o il computer CL1 di Cortical Labs, recentemente oggetto di una collaborazione tra Reply e l’Università Statale di Milano, stanno esplorando la possibilità di utilizzare organoidi cerebrali – aggregati tridimensionali di neuroni umani – come veri e propri processori biologici.
I risultati preliminari sono promettenti: queste reti neuronali viventi apprendono con un numero di esempi significativamente inferiore rispetto ai sistemi tradizionali e consumano una frazione dell’energia richiesta dai chip al silicio . In un futuro non troppo lontano, i bio computer potrebbero quindi ospitare le intelligenze artificiali più evolute, offrendo una soluzione al problema energetico che oggi affligge il settore e realizzando, in modo forse inaspettato, il sogno di un’intelligenza artificiale davvero efficiente quanto quella umana. Un paradosso affascinante: per superare i limiti del silicio, l’uomo torna a guardare alla propria stessa biologia.
Concludendo…
In un dibattito spesso polarizzato tra apocalittici e integrati, la voce della scienza aiuta a distinguere i fatti dalle narrazioni. E i fatti dicono che l’AI ha un problema energetico reale e crescente, che le soluzioni tecnologiche per l’acqua esistono ma non sono ancora universali, e che il cervello umano rimane, per ora, un modello di efficienza inarrivabile che potrebbe ispirare – o addirittura costituire – la prossima generazione di computer.
by Roosteram
Fonti e riferimenti Bibliografici:
Masanet, E., Shehabi, A., Lei, N., Smith, S., & Koomey, J. (2020). Recalibrating global data center energy-use estimates. Science, 367(6481), 984-986. DOI: 10.1126/science.aba3758
Shehabi, A., Smith, S., Sartor, D., Brown, R., Herrlin, M., Koomey, J., … & Lintner, W. (2016). United States Data Center Energy Usage Report. Lawrence Berkeley National Laboratory. LBNL-1005775.
Ebrahimi, K., Jones, G. F., & Fleischer, A. S. (2014). A review of data center cooling technology, operating conditions and the corresponding low-grade waste heat recovery opportunities. Applied Thermal Engineering, 70(2), 1225-1238. DOI: 10.1016/j.applthermaleng.2014.05.086
Gao, T., Geer, D., Sammakia, B., & Schmidt, R. (2021). Comparative Analysis of Liquid Cooling Architectures for High-Performance Data Centers. IEEE Transactions on Components, Packaging and Manufacturing Technology, 11(4), 612-623. DOI: 10.1109/TCPMT.2021.3065179
Siddik, M. A. B., Shehabi, A., & Marston, L. (2021). The environmental footprint of data centers in the United States. Environmental Research Letters, 16(6), 064017. DOI: 10.1088/1748-9326/abfba1
Andrae, A. S. G. (2023). Total Consumer Power Consumption Forecast. Challenges, 14(2), 27. DOI: 10.3390/challe14020027
Gupta, U., Kim, Y. G., Lee, S., Tse, J., Lee, H. H. S., & Wu, C. J. (2024). The carbon impact of artificial intelligence. Nature Electronics, 7, 104-112. DOI: 10.1038/s41928-023-01109-7
Attwell, D., & Laughlin, S. B. (2001). An energy budget for signaling in the grey matter of the brain.Journal of Cerebral Blood Flow & Metabolism, 21(10), 1133-1145. DOI: 10.1097/00004647-200110000-00001
Sengupta, B., Stemmler, M. B., & Friston, K. J. (2013). Information and efficiency in the nervous system—a synthesis. Journal of Computational Neuroscience, 35(2), 129-142. DOI: 10.1007/s10827-013-0451-6
Merolla, P. A., Arthur, J. V., Alvarez-Icaza, R., Cassidy, A. S., Sawada, J., Akopyan, F., … & Modha, D. S. (2014). A million spiking-neuron integrated circuit with a scalable communication network and interface. Science, 345(6197), 668-673. DOI: 10.1126/science.1254642
Indiveri, G., & Liu, S. C. (2015). Memory and information processing in neuromorphic systems.Proceedings of the IEEE, 103(8), 1379-1397. DOI: 10.1109/JPROC.2015.2444094
Roy, K., Jaiswal, A., & Panda, P. (2019). Towards spike-based machine intelligence with neuromorphic computing. Nature, 575, 607-617. DOI: 10.1038/s41586-019-1677-2



