l’intervento

Data center, da edifici a unità di calcolo: la svolta dell’intelligenza artificiale



Indirizzo copiato

L’aumento dei workload legati all’AI e la crescita della densità computazionale stanno cambiando la natura delle infrastrutture digitali, portando a una nuova concezione delle strutture che ospitano l’elaborazione dei dati.

Pubblicato il 16 mar 2026

Andrea Faeti

Sales Director Enterprise Accounts di Vertiv Italia



data center unità di calcolo

Ci siamo abituati a chiamare “computer” cose che fino a poco tempo fa erano solo oggetti di uso quotidiano. Le automobili sono l’esempio più noto. Con più codice di un jet da combattimento e una quantità di chip superiore a qualunque hardware, sono diventate veri calcolatori su ruote, alcune addirittura a guida autonoma. Lo stesso vale per i frigoriferi intelligenti, gli orologi, i termostati e sì, persino le lavatrici.

Eppure, paradossalmente, non riconosciamo la stessa dignità digitale agli ambienti che ospitano l’elaborazione dei dati. Anche se i data center sono stati progettati appositamente per gestire l’infrastruttura IT, spesso vengono considerati ancora dei semplici immobili, pensati come “edifici” dai team addetti alle infrastrutture e come “macchine di calcolo” dagli stessi team IT. Questa situazione non è più accettabile.

Il Data Center è diventato la nuova unità di calcolo

È qui che l’AI, e in particolare il calcolo accelerato, costituisce il punto di svolta. La crescente densità dei workload di AI, determinata da modelli con trilioni di parametri e cluster GPU che assorbono oltre 100 kW per rack, sta imponendo un ripensamento delle tradizionali architetture.

Jensen Huang, CEO di NVIDIA, ha affermato che il data center stesso è oggi l’unità di calcolo. Si tratta di un’evoluzione interessante: Chip → Server → Rack → File → Sala → Data center. Ogni livello è una macchina più integrata e ottimizzata, non un insieme di parti separate.

451 Research e altri ricercatori sono andati oltre, suggerendo di considerare il data center come una macchina, non come un edificio, la prossima unità di calcolo. E le macchine hanno progetti, specifiche di tolleranza e metriche di prestazione. Sono progettate. Misurate. Ottimizzate. Ripetibili.

AI e densità computazionale cambiano l’architettura

La notevole esplosione di training sull’AI da parte dei grandi fornitori di servizi cloud e LLM ha iniziato a cambiare le carte in tavola e ha portato a un aumento della densità di potenza dei rack, che ha finalmente reso convincenti le considerazioni di natura fisica a favore del raffreddamento a liquido, dove l’IT e il thermal management sono strettamente integrati.

L’innovazione riguarda anche l’erogazione e la distribuzione dell’energia elettrica, che è sempre più strettamente legata all’IT.

Vertiv è impegnata in prima linea in questa convergenza IT/OT, anche attraverso collaborazioni tecnologiche con produttori di chip leader come NVIDIA e recentemente ha promosso il proprio approccio al data center come singola unità di calcolo, dove:

  • Il data center nel suo complesso è integrato e ottimizzato come l’elettronica su un circuito stampato. Alimentazione, raffreddamento e servizi IT sono tutti integrati insieme, garantendo un aumento dell’efficienza energetica superiore al 20%, uno spazio ridotto del 30% e un tempo di implementazione dimezzato, con un risparmio totale del 25% sui costi di esercizio.
  • I workloads sono dinamici. È come una squadra di meccanici che entra in azione quando l’auto si ferma ai box e tutto è sincronizzato per il rifornimento e il cambio delle gomme. Se si eccede, si spreca, se si è troppo scarsi, si perde la gara. Lo stesso vale per le GPU sui cui carichi prevedere in anticipo la potenza e il raffreddamento necessario.

Architetture AI e collaborazione tra aziende tecnologiche

Vertiv ha recentemente rilasciato un’architettura di riferimento completa da 7 MW della piattaforma NVIDIA GB200 NVL72, sviluppata grazie alla collaborazione con NVIDIA. L’architettura accelera l’implementazione della piattaforma rack-scale raffreddata a liquido NVIDIA GB200 NVL72 e supporta fino a 132 kW per rack.

Oltre all’affermazione secondo cui i data center dovrebbero essere considerati come unità di calcolo, c’è una tendenza correlata a classificare i data center ottimizzati per l’AI come “AI Factory” e persino i siti hyperscale più grandi come “AI Gigafactory”. È interessante notare che in questo modo si continua a considerare il data center come un edificio, sebbene dedicato alla “produzione” di AI su larga scala.

“Siamo orgogliosi di consolidare la nostra collaborazione con NVIDIA per realizzare i data center basati sull’AI di oggi e di domani – spiega Giordano Albertazzi, CEO di Vertiv – In qualità di leader nelle infrastrutture critiche di alimentazione e raffreddamento, Vertiv occupa una posizione privilegiata per supportare la piattaforma NVIDIA GB200 NVL72.”

“Grazie alle tecnologie di raffreddamento e alimentazione di livello mondiale di Vertiv, NVIDIA può attuare la propria strategia volta a reinventare il computing – aggiunge Jensen Huang, CEO di NVIDIA.e a creare un nuovo settore di AI Factory che producono intelligenza digitale a vantaggio di ogni azienda e settore”.

La convergenza è inevitabile

Il percorso verso i data center autonomi sta prendendo forma in modo simile a quello delle auto a guida autonoma: più lungo del previsto, ma già ben avviato. L’elaborazione sta diventando infrastruttura. L’infrastruttura sta diventando intelligente.

E il data center si sta evolvendo da un edificio a una macchina.

Che li chiamiamo edifici, fabbriche o computer, alla fine sarà solo una questione semantica. Ciò che conta è riconoscere ciò che sono diventati: sistemi intelligenti e interconnessi progettati per fornire AI su larga scala.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x