L’intelligenza artificiale sta trasformando il mondo dell’IT, e con essa anche le infrastrutture che la supportano. Tra queste, i data center sono sotto pressione: devono gestire carichi di lavoro sempre più intensi, garantire prestazioni elevate e mantenere la sostenibilità energetica. Eppure, c’è un ostacolo che non si può più ignorare: il raffreddamento ad aria non basta più.
Per decenni, l’industria ha fatto affidamento sull’aria per raffreddare i server. Ma oggi, con l’aumento della densità di calcolo e l’adozione massiva di sistemi AI basati su GPU, il calore generato ha superato la soglia che l’aria può gestire. I chip passano da 120 watt a oltre 600 watt, e i rack raggiungono potenze che sfiorano i 70 kilowatt. Il risultato? I sistemi ad aria stanno raggiungendo il loro limite fisico. I responsabili IT si trovano davanti a una scelta cruciale: come soddisfare la crescente domanda di potenza, gestire temperature sempre più elevate e contenere i costi operativi? La risposta non è più nell’aria, ma nell’acqua.
Il raffreddamento a liquido rappresenta un cambio di paradigma. Non è solo una soluzione tecnica, ma una strategia per garantire efficienza, sostenibilità e scalabilità nel lungo periodo. È la tecnologia che può traghettare i data center verso il futuro dell’AI.
Indice degli argomenti
Il limite dell’aria è stato raggiunto
Oggi, un sistema raffreddato ad aria può gestire fino a circa 70 kilowatt per rack, ma si scontra con un vincolo fisico chiamato capacità termica specifica: oltre questa soglia, l’aria non riesce più a dissipare il calore in modo efficace. E la situazione è destinata a peggiorare. I carichi di lavoro AI richiedono fino a cinque volte più energia rispetto al passato, e i chip stanno passando da 120 watt a oltre 600 watt.
È una trasformazione che ricorda quella vissuta dall’industria automobilistica: quando i motori hanno iniziato a generare più potenza, il raffreddamento ad aria è stato abbandonato in favore di quello a liquido. Citroën ha prodotto l’ultimo motore raffreddato ad aria su larga scala negli anni ’70, mentre Porsche ha resistito fino alla fine del secolo. Oggi, le auto raffreddate ad aria sono pezzi da collezione. I data center stanno vivendo lo stesso passaggio.
Perché l’acqua è la soluzione ideale
L’acqua è il fluido perfetto per il raffreddamento: ha la più alta capacità di trattenere e trasferire calore tra tutti i liquidi e gas comuni. È oltre 3.000 volte più efficiente dell’aria nel trasferire calore. Per dare un’idea: se camminare fosse 3.000 volte più efficiente, si potrebbe andare da Londra a Roma nel tempo necessario per preparare un caffè.
Nei data center, dove fino al 50% dell’energia totale viene utilizzata solo per il raffreddamento, il passaggio al liquido rappresenta una svolta. Tecnologie come il direct-to-node cooling permettono di rimuovere almeno il 98% del calore generato dai server, e quel calore può essere riutilizzato per riscaldare ambienti o altre strutture.
E non si tratta di sprecare acqua: i sistemi moderni utilizzano circuiti chiusi e tecnologie di raffreddamento ad acqua calda, che non richiedono il raffreddamento continuo dell’acqua né il suo scarico. Questo significa zero sprechi e nessuna pressione sulle risorse idriche locali. L’efficienza termica si traduce in sostenibilità reale.
I sistemi moderni sono progettati per essere sicuri, facilmente manutenibili e compatibili con una vasta gamma di ambienti.
Una tecnologia scalabile e accessibile
Il raffreddamento a liquido non è una tecnologia riservata ai grandi hyperscaler come Amazon, Google o Microsoft. Con la crescita della domanda di AI e l’attenzione crescente alla sostenibilità, anche università, centri di ricerca e data center Tier 2 e Tier 3 stanno adottando questa soluzione per restare competitivi.
E non serve stravolgere l’infrastruttura esistente: le soluzioni più recenti si integrano perfettamente con i sistemi già in uso, anche in configurazioni ibride aria/liquido, facilitando l’adozione graduale.
Secondo il think tank Ember, il consumo energetico dei data center in Europa è destinato ad aumentare del 150% nei prossimi dieci anni. In questo scenario, il raffreddamento a liquido è la chiave per migliorare l’efficienza (PUE), ridurre i costi e rispettare gli obiettivi ESG. E con il raffreddamento ad acqua calda, si evita anche lo spreco di risorse idriche, riducendo la pressione sulle forniture locali.
Il futuro è liquido
Il raffreddamento a liquido può sembrare una sfida, ma è ormai una scelta inevitabile. Con l’aria che ha raggiunto il suo limite termico, CIO e leader IT che vogliono guidare l’innovazione, migliorare l’efficienza e rispettare gli obiettivi ESG devono considerare seriamente questa tecnologia.
Adottare il raffreddamento a liquido significa ridurre i costi operativi, aumentare le prestazioni e abbracciare un modello di infrastruttura più sostenibile. Ma soprattutto, significa prepararsi concretamente alle esigenze di un futuro sempre più guidato dall’intelligenza artificiale.
L’AI ha bisogno di potenza, efficienza e scalabilità. E ha bisogno di acqua. Il futuro dei data center è già qui. E non è raffreddato ad aria.