Per mesi, molti investitori avevano etichettato Amazon come “in ritardo” della corsa all’AI. L’assenza di un chatbot consumer paragonabile a ChatGPT e il ritardo nel proporre un modello linguistico “bandiera” avevano alimentato l’idea che Microsoft e Google stessero correndo più velocemente sul fronte dell’intelligenza artificiale generativa.
Le analisi e le dichiarazioni rilasciate alla stampa internazionale dagli analisti convergono però nel ritenere che l’accordo da 38 miliardi di dollari su sette anni appena siglato con la società di ChatGPT cambi radicalmente il quadro. Reuters parla di “un’importante endorsement per il business cloud del colosso dell’e-commerce”, dopo qualche inciampo, inclusa un’interruzione di servizio che aveva messo in difficoltà ampie porzioni di Internet.
Mamta Valechha, analista di Quilter Cheviot, sintetizza così il senso della partita:
“Per quanto possa essere di dimensioni ridotte rispetto ad altri accordi che OpenAI ha siglato con altri provider cloud, l’intesa rappresenta un primo passo fondamentale nello sforzo di Amazon di collaborare con un’azienda che nei prossimi anni spenderà oltre mille miliardi di dollari in potenza di calcolo“.
Indice degli argomenti
Cosa guadagna OpenAI: il punto di vista di Rosario Fortugno
Dal lato di chi sviluppa modelli di frontiera, il maxi-deal va inserito in una strategia più ampia: uscire dalla logica del single-vendor e costruire un portafoglio multi-infrastruttura. A ricordarlo è anche Rosario Fortugno, analista indipendente specializzato in intelligenza artificiale e infrastrutture cloud, che in un commento legge l’intesa come “un tassello centrale nel disegno multi-cloud di OpenAI”.
Negli anni iniziali, la relazione con Microsoft era stata di fatto esclusiva. Questo assetto è stato rivisto a inizio 2025, quando si è passati a un modello di “right of first refusal” che dà la possibilità di distribuire i carichi anche su altri provider, inclusi Oracle, Nvidia DGX Cloud e ora Amazon Web Services.
Secondo Fortugno, questa scelta ha effetti diretti sul potere di mercato della società di ChatGPT. Da un lato accresce il potere negoziale, perché potersi sedere al tavolo con più hyperscaler significa mettere in concorrenza prezzi e riserve di capacità GPU. Dall’altro riduce il rischio di lock-in tecnologico e commerciale, grazie alla possibilità di spostare rapidamente i workload critici se uno dei partner non è più in grado di garantire condizioni soddisfacenti.
C’è poi un tema di velocità di innovazione. Disporre di cluster di nuova generazione, come quelli basati su GPU NVIDIA GB200 e GB300 in configurazione UltraServers, permette di accelerare il ciclo di training e sperimentazione sui modelli. Fortugno sottolinea che dimezzare i tempi di iterazione significa spesso raddoppiare la produttività di ricerca, rafforzando il vantaggio competitivo e consolidando la posizione di OpenAI nella fascia alta dei cosiddetti “frontier models”.
Le parole dei CEO: calcolo “massivo” e infrastruttura come backbone
Le dichiarazioni dei vertici delle due aziende confermano la lettura degli analisti e mettono l’accento su un concetto: senza calcolo massivo e affidabile, i modelli di frontiera restano sulla carta.
Sam Altman, co-fondatore e CEO di OpenAI, va dritto al punto: “Scalare l’AI di frontiera richiede una capacità di calcolo massiva e affidabile. La nostra partnership con AWS rafforza l’ampio ecosistema di calcolo che alimenterà questa nuova era e porterà l’AI avanzata a tutti”.
Nel lessico del CEO emergono due elementi: l’idea di un ecosistema di calcolo “ampio” e non monolitico, e l’obiettivo di trasformare questo patrimonio infrastrutturale in una piattaforma in grado di democratizzare l’accesso all’AI avanzata, dalle grandi aziende alle realtà più piccole.
Matt Garman, numero uno di AWS, insiste sul ruolo dell’infrastruttura nel sostenere le ambizioni dei modelli più avanzati: “Man mano che OpenAI continua a spingere i confini di ciò che è possibile, l’infrastruttura best-in-class di AWS fungerà da spina dorsale per le sue ambizioni in ambito AI» – spiega – L’ampiezza e l’immediata disponibilità di capacità di calcolo ottimizzata dimostrano perché AWS è in una posizione unica per supportare i vasti carichi di lavoro di AI di OpenAI”.
Dal backlog al mercato: come cambia la competizione tra hyperscaler
Sul fronte finanziario, l’effetto immediato più citato riguarda il backlog di AWS, cioè il valore dei contratti pluriennali già acquisiti. Secondo BMO Capital Markets, l’intesa con OpenAI potrebbe far crescere questo indicatore di circa il 20% nel solo quarto trimestre, rispetto ai livelli di fine settembre.
Per il mercato delle infrastrutture digitali, il segnale è duplice. Da un lato, l’intesa conferma che i grandi player dell’AI stanno distribuendo i carichi su più provider, anche quando esistono partnership storiche come quella con Azure. Dall’altro lato, assegna ad Amazon un ruolo di primo piano nella partita dei grandi modelli di frontiera, dopo una fase in cui i deal più visibili erano stati conquistati dai concorrenti.
William Lee, investitore di SuRo Capital – fondo che detiene anche una partecipazione in OpenAI – lo riassume così: “Sembra chiaramente che loro (Amazon) siano finalmente dentro il flusso di ciò che sta accadendo con questi grandi modelli linguistici, rispetto a prima”.
In altre parole, AWS non è più percepita come “osservatrice” della rivoluzione dell’AI generativa, ma come uno dei suoi motori infrastrutturali principali, capace di contendere a Microsoft e Google i grandi contratti AI dei prossimi anni.
Prospettive per telco e imprese: la vera partita è sull’uso del calcolo
Guardando alle prospettive del deal, gli esperti convergono su un punto: la vera partita si giocherà su come telco, media company e imprese sapranno sfruttare questo nuovo asse infrastrutturale.
Per gli operatori di rete, la combinazione tra modelli generativi di frontiera, agenti AI e supercluster di GPU apre possibilità in ambiti come automazione della gestione di rete, ottimizzazione dinamica delle risorse, progettazione di servizi personalizzati e assistenza avanzata su canali digitali.
La disponibilità dei modelli OpenAI su piattaforme come Amazon Bedrock consente di sperimentare rapidamente use case ad alto valore, senza dover costruire ex novo infrastrutture di supercalcolo.
Per le imprese di altri settori, la domanda chiave sarà come costruire architetture che sfruttino la potenza dei grandi modelli mantenendo controllo sui dati e flessibilità nella scelta dei provider.
In questo quadro, la progettazione di layer applicativi che evitino il lock-in, l’adozione di strategie multi-cloud e la definizione di una governance solida dell’AI diventano componenti centrali di qualunque percorso di trasformazione digitale.
In sintesi, se il maxi-deal tra AWS e OpenAI segna una nuova tappa nella geografia del potere computazionale, il giudizio degli esperti è che il successo dell’operazione dipenderà non solo dalla quantità di GPU installate, ma dalla capacità dell’ecosistema – telco, imprese, sviluppatori e regolatori – di trasformare questa potenza in valore reale, sostenibile e diffuso.



































































