Meta investirà centinaia di miliardi di dollari per promuovere lo sviluppo della superintelligence, termine che si riferisce a un ipotetico sistema di AI in grado di superare le prestazioni del cervello umano.
È stato lo stesso amministratore delegato del gruppo Mark Zuckerberg ad annunciarlo con un post pubblicato sulla piattaforma Threads, Zuckerberg ha precisato che Meta punta a creare uno dei “team più d’élite e ricchi di talenti del settore” e che dispone del capitale necessario a supportare piani estremamente ambiziosi, i quali, ha rimarcato l’imprenditore, prevedono anche la realizzazione di infrastrutture informatiche ad hoc
Parliamo del già annunciato super cluster da 1 GW Prometheus, che entrerà in funzione a New Albany, in Ohio nel 2026. Per capire l’entità di questi investimenti è sufficiente dire che un altro progetto, denominato Hyperion, potrebbe consumare fino a 5 gigawatt di energia, sufficienti a fornire elettricità a oltre quattro milioni di famiglie americane medie, secondo gli esperti. L’impronta energetica di Hyperion, in pratica, equivale a quella di gran parte di Manhattan.
La portavoce di Meta Ashley Gabriel ha dichiarato a TechCrunch che Hyperion avrà sede in Louisiana, probabilmente nella Richland Parish, dove Meta aveva già annunciato lo sviluppo di un data center da 10 miliardi di dollari. Gabriel afferma che l’azienda prevede di portare online due gigawatt di capacità del data center entro il 2030, ma che tale capacità sarà estesa a cinque gigawatt nel giro di pochi anni.
Indice degli argomenti
L’impatto della corsa statunitense all’intelligenza artificiale
L’annuncio segna l’ultima mossa di Meta per superare OpenAI e Google nella corsa all’intelligenza artificiale. Dopo aver precedentemente reclutato i migliori talenti per dirigere il Meta Superintelligence Lab, tra cui l’ex ceo di Scale AI Alexandr Wang e l’ex ceo di Safe Superintelligence Daniel Gross, il gruppo sembra ora rivolgere la propria attenzione all’enorme potenza di calcolo necessaria per addestrare modelli di intelligenza artificiale all’avanguardia.
Poco importa se una strategia del genere comporterà un consumo significativo di elettricità e acqua nelle comunità vicine. Uno dei progetti di data center di Meta nella contea di Newton, in Georgia, ha per esempio già causato l’esaurimento delle riserve idriche nelle abitazioni di alcuni residenti, secondo quanto riportato lunedì dal New York Times.
Altri progetti di data center dedicati all’intelligenza artificiale potrebbero causare problemi simili alle persone che vivono nelle loro vicinanze. Secondo Bloomberg, l’hyperscaler di intelligenza artificiale CoreWeave sta pianificando un ampliamento del data center che dovrebbe raddoppiare il fabbisogno di elettricità di una città vicino a Dallas, in Texas.
Ciononostante, le aziende tecnologiche – basti pensare all’operazione Stargate di OpenAI con Oracle e SoftBank, o al supercomputer Colossus di xAI – sono determinate a realizzare data center sempre più imponenti per supportare le loro strategie di crescita nel campo dell’intelligenza artificiale.
Il sostegno senza se e senza ma della Casa Bianca
D’altra parte l’amministrazione Trump sostiene in modo esplicito lo sviluppo dei data center di intelligenza artificiale da parte dell’industria tecnologica. È stato proprio Trump a dare il via libera OpenAI rispetto al progetto Stargate e da allora la corsa all’espansione delle infrastrutture non ha più avuto freni. In un articolo uscito sul settimanale The Economist, il segretario all’Energia degli Stati Uniti Chris Wright ha invitato gli Stati Uniti a “guidare la prossima grande frontiera ad alta intensità energetica: l’intelligenza artificiale”. Ha osservato che l’AI trasforma l’elettricità nel “prodotto più prezioso immaginabile: l’intelligenza” e che il governo federale accelererà la produzione di energia derivata dal carbone, dal nucleare, dal geotermico e dal gas naturale.
Con il sostegno dei funzionari federali, l’industria dell’intelligenza artificiale sembra destinata ad assorbire gran parte dell’energia americana nei prossimi anni.
“Gli Stati Uniti devono davvero concentrarsi sulla semplificazione della capacità di costruire data center e produrre energia”, ha affermato Zuckerberg. “Altrimenti, ci troveremo in una posizione di notevole svantaggio”.
E il governo degli Stati Uniti condivide appieno questo senso di urgenza. Anche David Sacks, attualmente responsabile dell’intelligenza artificiale e della crittografia alla Casa Bianca, ha sottolineato che l’espansione dell’energia e dei data center è fondamentale per la strategia americana in materia di intelligenza artificiale, lasciando poco spazio alle preoccupazioni relative alla sostenibilità.
L’allarme degli esperti: Accenture lancia un nuovo parametro per la sostenibilità dell’AI
Il problema è che gli esperti stimano che i data center potrebbero rappresentare il 20% del consumo energetico americano entro il 2030, rispetto al solo 2,5% del 2022. Senza un rapido aumento della produzione di energia, ciò potrebbe causare ulteriori problemi alle comunità. Anche Accenture lancia l’allarme, chiamando in casua pure il tema della sostenibilità ambientale: le emissioni di carbonio dei data center di intelligenza artificiale sono destinate ad aumentare di 11 volte entro il 2030.
In un rapporto recentemente pubblicato, la società di consulenza stima che nei prossimi cinque anni i data center dedicati all’intelligenza artificiale potrebbero consumare 612 terawattora di elettricità, pari all’incirca al consumo energetico totale annuo del Canada, determinando un aumento del 3,4% delle emissioni globali di carbonio. Senza contare che, in un momento in cui le riserve di acqua dolce sono già sottoposte a forte pressione, i data center dedicati all’AI consumeranno anche più di 3 miliardi di metri cubi di acqua all’anno, un volume che supera il prelievo annuale di acqua dolce di interi paesi come la Norvegia o la Svezia.
Il rapporto, intitolato Powering Sustainable AI, offre raccomandazioni su come contenere il problema e impedire che questi numeri diventino realtà. Ma la cronaca, come si è visto, rende questi consigli quasi superflui: l’urgenza di una corsa all’intelligenza artificiale contro la Cina non sembra lasciare molto spazio, o tempo, per riflettere seriamente sulla sostenibilità.
Tra gli osservatori c’è addirittura chi definisce “cauto” l’approccio di Washington nei confronti dell’intelligenza artificiale, parlando di una strategia che potrebbe soffocare il settore invece di spianare la strada allo sviluppo delle infrastrutture e dell’energia, compresi i data center per l’intelligenza artificiale, per stare al passo con la Cina.
In questo scenario, Accenture esorta comunque i propri clienti a crescere in modo responsabile e a progettare i propri data center dedicati all’AI nel tentativo di bilanciare la crescita con la responsabilità ambientale. Il gruppo, in particolare, ha elaborato un nuovo parametro, che chiama Sustainable AI Quotient, per misurare i costi reali dell’AI in termini di denaro investito, megawattora di energia consumata, tonnellate di CO₂ emesse e metri cubi di acqua utilizzati. Il rapporto di Accenture afferma che il parametro aiuterà le organizzazioni a rispondere a una domanda fondamentale: “Cosa otteniamo effettivamente dalle risorse che investiamo nell’AI?” e consentirà alle aziende di misurare le proprie prestazioni nel tempo.