LA STRATEGIA

Amazon rilancia sull’AI, nuovi cloud tools per sfidare Microsoft e Google

Il ceo Jassy scrive agli azionisti: “Fiducia nella riduzione dei costi. Dall’intelligenza artificiale sprint alla crescita”

Pubblicato il 14 Apr 2023

chat gpt

Amazon “sta spendendo molto” in strumenti basati sull’intelligenza artificiale. A dirlo è il Ceo del colosso dell’e-commerce, Andy Jassy, che nella lettera annuale agli azionisti si dichiara fiducioso sul fatto che la società terrà i costi sotto controllo.

La strategia di Jassy tra tagli e sviluppo dell’AI

Jassy ha descritto il 2022 come “uno degli anni più difficili a livello macroeconomico della storia recente” e ha dettagliato i passi che Amazon ha intrapreso per ridurre i costi, a partire dalla chiusura della divisione Amazon Care e di alcuni negozi. La società ha anche tagliato 27mila posti di lavoro dall’autunno, dando vita al più grande round di licenziamenti della sua storia. “Ci sono una serie di altri cambiamenti che abbiamo apportato negli ultimi mesi per ottimizzare i nostri costi complessivi”, ha aggiunto. Nonostante i tagli e i tempi “turbolenti”, Jassy ha detto di credere fermamente che i “giorni migliori di Amazon siano davanti a noi“.

L’azienda di Seattle continuerà a investire nei chip specializzati più utilizzati per sostenere l’apprendimento automatico, la sua attività pubblicitaria e gli strumenti di intelligenza artificiale generativa. I tool fanno parte di una nuova generazione di sistemi di apprendimento automatico in grado di conversare, generare testo leggibile su richiesta e produrre nuove immagini e video basati su ciò che hanno appreso da un vasto database di libri digitali e testo online. I Large Language Models e l’AI generativa “saranno centrali per i clienti, per i nostri azionisti e per Amazon“, ha precisato Jassy.

Con il cloud un’intelligenza artificiale a misura d’impresa

Anche la divisione cloud computing di Amazon punta allo sviluppo e alla fornitura di sistemi basati sull’intelligenza artificiale sempre più evoluti. Il gruppo ha rilasciato ieri una suite di tecnologie volte ad aiutare altre aziende a sviluppare i propri chatbot e servizi di generazione di immagini supportati dall’intelligenza artificiale.

Si tratta del resto di una risposta necessaria alle strategie di Microsoft e Alphabet, che non solo stanno implementando chatbot alimentati dall’AI all’interno di prodotti di consumo, come i motori di ricerca, ma stanno puntando anche a un altro enorme mercato: la vendita della tecnologia sottostante ad altre aziende attraverso le loro piattaforme cloud.

Amazon Web Services (Aws) sembrerebbe però aver adottato un approccio diverso. Il provider offrirà un servizio chiamato Bedrock che consente alle aziende di personalizzare i cosiddetti modelli di base con i propri dati per creare un modello unico. Un business model non dissimile da quello di OpenAI, il creatore di ChatGpt.

Il servizio Bedrock permetterà ai clienti di lavorare con i modelli di fondazione proprietari di Amazon, chiamati Amazon Titan, ma offrirà anche un menu di modelli offerti da altre aziende. Le prime opzioni di terze parti provengono dalle startup AI21 Labs, Anthropic e Stability AI. Il servizio Bedrock, tra l’altro, consente ai clienti Aws di testare queste tecnologie senza doversi occupare dei server del data center che le alimentano.

“Si tratta di una complessità non necessaria dal punto di vista dell’utente”, ha dichiarato a Reuters Vasi Philomin, vicepresident della divisione Aws che si occupa di AI generativa. “Lavorando dietro le quinte, possiamo astrarre questa complessità”.

I server sottostanti al servizio utilizzeranno un mix di chip AI personalizzati da Amazon e di chip di Nvidia, il principale fornitore di chip per le applicazioni di intelligenza artificiale. “Siamo in grado di acquistare decine di migliaia, centinaia di migliaia di chip, in base alle nostre esigenze”, ha aggiunto Dave Brown, vicepresidente di Elastic Compute Cloud di Aws, alludendo al fatto che i processori di Nvidia sono, per evidenti ragioni, molto richiesti sul mercato, e quindi tutt’altro che immediatamente reperibili.

I nuovi strumenti annunciati

A spiegare nel dettaglio le caratteristiche e la disponibilità dei nuovi tool ci ha pensato Swami Sivasubramanian, VP di Databases, Analytics e Machine Learning di Aws. Nello specifico, Bedrock consente di costruire e scalare facilmente applicazioni di AI generativa, vale a dire applicazioni in grado di generare testo, immagini, audio e dati sintetici in risposta a un prompt. Amazon Bedrock offre ai clienti un facile accesso ai foundation models, modelli di ML di grandi dimensioni su cui si basa l’AI generativa, dei migliori fornitori, e l’utilizzo esclusivo dei servizi Titan sviluppati da Aws.

I chip Aws Inferentia garantiscono inoltre la massima efficienza energetica e il costo più basso per l’esecuzione di carichi di lavoro di inferenza dell’AI generativa impegnativi (come l’esecuzione di modelli e la risposta a query in produzione) su scala, mentre le nuove istanze Trn1n (la risorsa server in cui avviene l’elaborazione e che, in questo caso, viene eseguita sui chip Trainium personalizzati di Aws) offrono un’enorme capacità di rete, fondamentale per addestrare questi modelli in modo rapido ed efficiente. Gli sviluppatori saranno così in grado di addestrare i modelli in modo più rapido e meno dispendioso, portando in ultima analisi a un aumento dei servizi basati sui modelli di AI generativa.

La nuova proposition include infine l’accesso gratuito ad Amazon CodeWhisperer per i singoli sviluppatori: la soluzione utilizza l’AI generativa per fornire suggerimenti di codice in tempo reale, sulla base dei commenti dell’utente e del suo codice precedente. I singoli sviluppatori possono accedere ad Amazon CodeWhisperer gratuitamente, senza limiti di utilizzo, ma sono disponibili anche opzioni a pagamento per l’uso professionale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5