Ci siamo abituati a chiamare “computer” cose che fino a poco tempo fa erano solo oggetti di uso quotidiano. Le automobili sono l’esempio più noto. Con più codice di un jet da combattimento e una quantità di chip superiore a qualunque hardware, sono diventate veri calcolatori su ruote, alcune addirittura a guida autonoma. Lo stesso vale per i frigoriferi intelligenti, gli orologi, i termostati e sì, persino le lavatrici.
Eppure, paradossalmente, non riconosciamo la stessa dignità digitale agli ambienti che ospitano l’elaborazione dei dati. Anche se i data center sono stati progettati appositamente per gestire l’infrastruttura IT, spesso vengono considerati ancora dei semplici immobili, pensati come “edifici” dai team addetti alle infrastrutture e come “macchine di calcolo” dagli stessi team IT. Questa situazione non è più accettabile.
Indice degli argomenti
Il Data Center è diventato la nuova unità di calcolo
È qui che l’AI, e in particolare il calcolo accelerato, costituisce il punto di svolta. La crescente densità dei workload di AI, determinata da modelli con trilioni di parametri e cluster GPU che assorbono oltre 100 kW per rack, sta imponendo un ripensamento delle tradizionali architetture.
Jensen Huang, CEO di NVIDIA, ha affermato che il data center stesso è oggi l’unità di calcolo. Si tratta di un’evoluzione interessante: Chip → Server → Rack → File → Sala → Data center. Ogni livello è una macchina più integrata e ottimizzata, non un insieme di parti separate.
451 Research e altri ricercatori sono andati oltre, suggerendo di considerare il data center come una macchina, non come un edificio, la prossima unità di calcolo. E le macchine hanno progetti, specifiche di tolleranza e metriche di prestazione. Sono progettate. Misurate. Ottimizzate. Ripetibili.
AI e densità computazionale cambiano l’architettura
La notevole esplosione di training sull’AI da parte dei grandi fornitori di servizi cloud e LLM ha iniziato a cambiare le carte in tavola e ha portato a un aumento della densità di potenza dei rack, che ha finalmente reso convincenti le considerazioni di natura fisica a favore del raffreddamento a liquido, dove l’IT e il thermal management sono strettamente integrati.
L’innovazione riguarda anche l’erogazione e la distribuzione dell’energia elettrica, che è sempre più strettamente legata all’IT.
Vertiv è impegnata in prima linea in questa convergenza IT/OT, anche attraverso collaborazioni tecnologiche con produttori di chip leader come NVIDIA e recentemente ha promosso il proprio approccio al data center come singola unità di calcolo, dove:
- Il data center nel suo complesso è integrato e ottimizzato come l’elettronica su un circuito stampato. Alimentazione, raffreddamento e servizi IT sono tutti integrati insieme, garantendo un aumento dell’efficienza energetica superiore al 20%, uno spazio ridotto del 30% e un tempo di implementazione dimezzato, con un risparmio totale del 25% sui costi di esercizio.
- I workloads sono dinamici. È come una squadra di meccanici che entra in azione quando l’auto si ferma ai box e tutto è sincronizzato per il rifornimento e il cambio delle gomme. Se si eccede, si spreca, se si è troppo scarsi, si perde la gara. Lo stesso vale per le GPU sui cui carichi prevedere in anticipo la potenza e il raffreddamento necessario.
Architetture AI e collaborazione tra aziende tecnologiche
Vertiv ha recentemente rilasciato un’architettura di riferimento completa da 7 MW della piattaforma NVIDIA GB200 NVL72, sviluppata grazie alla collaborazione con NVIDIA. L’architettura accelera l’implementazione della piattaforma rack-scale raffreddata a liquido NVIDIA GB200 NVL72 e supporta fino a 132 kW per rack.
Oltre all’affermazione secondo cui i data center dovrebbero essere considerati come unità di calcolo, c’è una tendenza correlata a classificare i data center ottimizzati per l’AI come “AI Factory” e persino i siti hyperscale più grandi come “AI Gigafactory”. È interessante notare che in questo modo si continua a considerare il data center come un edificio, sebbene dedicato alla “produzione” di AI su larga scala.
“Siamo orgogliosi di consolidare la nostra collaborazione con NVIDIA per realizzare i data center basati sull’AI di oggi e di domani – spiega Giordano Albertazzi, CEO di Vertiv – In qualità di leader nelle infrastrutture critiche di alimentazione e raffreddamento, Vertiv occupa una posizione privilegiata per supportare la piattaforma NVIDIA GB200 NVL72.”
“Grazie alle tecnologie di raffreddamento e alimentazione di livello mondiale di Vertiv, NVIDIA può attuare la propria strategia volta a reinventare il computing – aggiunge Jensen Huang, CEO di NVIDIA.e a creare un nuovo settore di AI Factory che producono intelligenza digitale a vantaggio di ogni azienda e settore”.
La convergenza è inevitabile
Il percorso verso i data center autonomi sta prendendo forma in modo simile a quello delle auto a guida autonoma: più lungo del previsto, ma già ben avviato. L’elaborazione sta diventando infrastruttura. L’infrastruttura sta diventando intelligente.
E il data center si sta evolvendo da un edificio a una macchina.
Che li chiamiamo edifici, fabbriche o computer, alla fine sarà solo una questione semantica. Ciò che conta è riconoscere ciò che sono diventati: sistemi intelligenti e interconnessi progettati per fornire AI su larga scala.





