Skip to main content

La spina nel fianco della IA? Necessita di una presa elettrica

Di P. L. Fukogama

L’intelligenza artificiale promette macchine sempre più potenti e autonome. Ma dietro algoritmi e supercomputer si nasconde una questione molto più concreta: la quantità di energia necessaria per farli funzionare

Quando pensiamo al futuro dell’intelligenza artificiale, spesso lo immaginiamo come la scena di un film di fantascienza: schermi pieni di dati che scorrono freneticamente, androidi dai tratti umani e una voce sintetica che annuncia, con gelida cortesia, il sorpasso dell’IA sulla mente biologica.

Questa ipotesi ha un nome preciso che evoca timore e reverenza: Singolarità Tecnologica. Un punto di non ritorno in cui l’IA supererà l’intelligenza umana, innescandone una crescita esponenziale, irreversibile e, forse, incontrollabile.

È lo scenario che tiene impegnati i visionari più acuti da decenni e evoca quella sensazione di meraviglia e smarrimento che i filosofi Kant o Burke chiamavano ‘sublime’: la percezione di qualcosa di potenza smisurata, capace di affascinarci e inquietarci allo stesso tempo.

Tuttavia, mentre filosofi e tecnocrati si interrogano sul possibile avvento della coscienza delle macchine e sulle sue inevitabili conseguenze, una questione molto più prosaica sta già bussando prepotentemente alla nostra porta. Non riguarda né l’etica, né gli algoritmi, ma ha un risvolto molto più materiale: riguarda kilowatt, cavi e calore.

Il costo del pensiero: ‘una fame atavica’

Ogni volta che digitiamo una richiesta in un prompt di IA, da qualche parte nel mondo, si accendono migliaia di chip dentro a un data center, un’immensa infrastruttura climatizzata piena di server.

Quei chip sono i veri muscoli dell’IA.

Purtroppo, questi sofisticati sistemi tecnologici, insieme ai loro impianti di raffreddamento, hanno un’insaziabile fame di energia. I modelli di IA consumano una quantità di elettricità che la maggior parte delle persone fatica anche solo a immaginare.

Giusto per dare un’idea della dimensione del problema, secondo alcune proiezioni, il consumo energetico legato ai data center globali potrebbe raggiungere il fabbisogno di una nazione industrializzata come il Giappone entro il 2030.

E non è solo una questione di bolletta, ma anche di impronta ecologica: addestrare la versione di Gpt-3 ha prodotto circa 550 tonnellate di CO₂, l’equivalente di 600 voli di andata e ritorno Parigi-New York. E i modelli successivi? Da dieci a cento volte più voraci.

Il costo di questo scenario è evidente. Se l’IA dovesse iniziare a progettare versioni di sé stessa sempre più potenti in un’escalation inarrestabile e sempre più veloce, il cosiddetto miglioramento ricorsivo, la sua fame di calcolo crescerebbe in modo esponenziale. Senza una fonte di energia straordinariamente abbondante, la ‘Singolarità’ non spaventerebbe solo per i risvolti inquietanti che suggerisce, ma rischierebbe di portare a un ‘cortocircuito’ globale capace di spegnere le luci delle nostre città.

Il laboratorio finlandese: quando l’IA scalda la doccia

C’è però un lato di questa storia che raramente viene raccontato: tutta l’energia consumata nei processi dell’IA non scompare, ma si trasforma in buona parte in calore. I chip che elaborano le nostre richieste si surriscaldano trasformando, a tutti gli effetti, i data center in gigantesche stufe elettriche che devono essere costantemente raffreddati.

Uno studio del 2024 citato dal Washington Post ha rilevato che generare un’e-mail di 100 parole richiede l’equivalente di una bottiglietta d’acqua da 500 ml per mantenere i sistemi a una temperatura di lavoro stabile. Nel complesso i numeri sono impressionanti: come riporta il New York Times (luglio 2025), il data center di Meta in Georgia consuma quasi due milioni di litri d’acqua al giorno, circa il 10% dell’intero fabbisogno della contea circostante di Newton.

L’acqua, non solo l’elettricità, è il carburante nascosto dell’intelligenza artificiale.

Fino a pochi anni fa, questo calore veniva considerato un problema, uno scarto da eliminare pompando aria fredda o acqua refrigerata, con ulteriori costi energetici.

Tuttavia, dove molti vedono un problema, alcuni hanno visto un’opportunità.

In Finlandia, Microsoft e l’azienda energetica Fortum hanno lanciato un progetto di economia circolare senza precedenti. Invece di disperdere il calore dei server nell’atmosfera, lo incanalano nella rete di teleriscaldamento di Helsinki.

L’energia termica in eccesso generata dal nuovo ‘Quartiere Cloud’ di Microsoft, un insieme di ‘capannoni blindati’ pieni di supercomputer, coprirà il 40% del fabbisogno della vicina area metropolitana, scaldando le case di 250.000 persone.

Non è un test: è il più grande recupero di calore informatico al mondo.

E non è l’unico esempio. Anche Google ha avviato un progetto simile a Hamina, sempre in Finlandia, in collaborazione con la compagnia energetica locale: il calore dei server dovrebbe soddisfare l’80% del fabbisogno annuale di teleriscaldamento della città.

La Finlandia è oggi il laboratorio mondiale di questo metabolismo simbiotico tra bit e mondo reale, dove non è necessario bruciare combustibili fossili per produrre calore, ma è il pensiero dell’IA a scaldare l’acqua dei termosifoni e la doccia di interi quartieri.

Il paradosso dello sviluppo efficiente

Per una sottile ironia della sorte, potrebbe essere proprio l’IA a risolvere la crisi energetica che essa stessa contribuisce ad alimentare. Una superintelligenza potrebbe accelerare la ricerca sulla fusione nucleare, l’energia delle stelle, pulita e teoricamente inesauribile, o progettare chip radicalmente più efficienti, che consumino una frazione dell’energia attuale.

E non è fantascienza. I giganti tech non si limitano a dominare il mercato dei processori, ma stanno investendo somme massicce per assicurarsi il futuro dell’energia.

Per citare un esempio, Google ha siglato un accordo storico per l’acquisto di 200 megawatt dal futuro reattore Arc in Virginia, che sarà probabilmente la prima centrale a fusione nucleare al mondo,sviluppata da Commonwealth Fusion Systems (Cfs).

Parallelamente, Nvidia ha partecipato a un round di investimenti per la stessa Cfs (l’azienda ha raccolto complessivamente circa 3 miliardi di dollari) con l’obiettivo di applicare la potenza di calcolo dell’intelligenza artificiale alla modellazione del plasma, accelerando drasticamente i tempi per stabilizzare le reazioni di fusione.

C’è però un effetto ben noto agli economisti: il paradosso di Jevons. Nel 1865, l’economista britannico W.S. Jevons osservò che quando le macchine a vapore divennero più efficienti, il consumo totale di carbone non diminuì, aumentò.

Questo paradosso apparente si può spiegare facilmente in tre semplici enunciati: macchine più efficienti abbassano i costi, costi più bassi attraggono più utenti, più utenti finiscono per consumare più risorse di prima.

Lo stesso ‘effetto rimbalzo’ (o ‘rebound effect’) potrebbe colpire l’IA: se i modelli diventassero cento volte più efficienti, probabilmente li useremmo molto di più. Le persone potrebbero utilizzarli per scrivere messaggi, gestire appuntamenti, controllare gli elettrodomestici o assistere ogni decisione quotidiana. Il consumo complessivo potrebbe restare invariato, o, addirittura, crescere.

L’efficienza del ‘bio-computer’

In questa corsa all’elettrificazione totale, emerge un confronto quasi imbarazzante se rivolgiamo lo sguardo allo specchio. Mentre i supercomputer di OpenAI o Google necessitano di intere centrali elettriche e milioni di litri d’acqua per non fondere, l’organo che ci permette di leggere, comprendere e criticare questo articolo opera con un’efficienza che rasenta il miracolo.

Il cervello umano, la struttura più complessa dell’universo conosciuto, funziona con una potenza media di circa 20 watt. È lo stesso consumo di una lampadina a Led o di un laptop in modalità risparmio energetico. Con quei miseri 20 watt, noi siamo in grado di provare emozioni, formulare teorie fisiche, ricordare il profumo del nostro partner e progettare quelle macchine che oggi consumano megawatt per imitarci.

Questo divario suggerisce che la strada verso la vera intelligenza non debba passare necessariamente per la forza bruta. La natura ha risolto il problema del calcolo attraverso un’evoluzione millenaria che ha ottimizzato ogni singolo impulso elettrochimico, mentre l’IA è ancora nella sua fase ‘termodinamica’: bollente e sprecona.

Una spina nel futuro

La Singolarità Tecnologica non sarà solo una sfida d’ingegno, filosofica o etica, ma soprattutto un’imponente sfida di infrastrutture.

Il successo dell’IA non si misurerà unicamente dalla sua abilità nello scrivere poesie o nel superare il test di Turing, ma dalla sua capacità di integrarsi nel metabolismo del pianeta senza mandarlo in sovraccarico.

La speranza è che il futuro non sia quello di una macchina che domina l’uomo, ma di un’intelligenza che, consapevole della propria materialità, impari a gestire la propria sete di energia prendendo ad esempio il nostro ‘arcaico’ ma imbattibile cervello. Senza mai dimenticare che l’algoritmo più brillante del mondo, se non ha corrente, resta solo un inutile mucchio di silicio spento.


×

Iscriviti alla newsletter