Cinque giorni densi di annunci e keynote anche quest’anno caratterizzano l’evento più importante per Aws a livello globale che richiama partner, clienti, ma soprattutto gli sviluppatori, da ogni parte del mondo. Per questa edizione di Aws re:Invent 2023 hanno affollato Las Vegas circa 60mila attendee, a documentare un interesse – quello per l’ecosistema cloud di Amazon – che continua a crescere così come l’esperienza in cloud delle aziende. Se ne parla oramai da circa 15 anni, eppure la maggior parte delle organizzazioni è, oggi, all’inizio del proprio percorso cloud, mentre nel tempo è cresciuta la complessità delle tecnologie abilitanti on-premise e in cloud. Una sorta di mix che oggi richiede visibilità e risorse per la soluzione proattiva dei problemi. Con l’intelligenza artificiale che ha letteralmente mischiato le carte e cambiato le regole per continuare ad essere competitivi anche nei prossimi anni. E’ singolare, per noi però significativo, cogliere a ritroso alcuni dei messaggi chiave in occasione dell’evento Aws e partire, nella lettura, non tanto dagli annunci tecnologici quanto piuttosto dall’esortazione, proprio in uno dei keynote di chiusura di Werner Vogels, VP e Cto Aws, che ha voluto condividere alcune semplici regole per costruire architetture sostenibili, efficienti ed attente ai costi.

Werner Vogel, Cto di Aws
Werner Vogels, Cto di Aws

Vogels definisce i costi del cloud come “non necessariamente funzionali all’effettivo sviluppo”. Per questo gli sviluppatori dovrebbero diventare “architetti frugali” sulla scorta dell’evidenza che l’enorme messe tecnologica disponibile “deve essere valutata e scelta anche e soprattutto in relazione a costi ed impatti per bilanciare funzionalità, time-to-market ed efficienza”.

Decidere di incrementare capacità o acquistare risorse invece di “riprogettare” ex novo processi e sistemi non è la soluzione migliore, e lo è ancora di meno quando si “mettono in relazione i costi aziendali con i costi per il pianeta”. La sostenibilità ambientale è oggielemento fondamentale nello sviluppo del software” e un vero e proprio treno in corsa destinato a travolgerci se non controllato. Il monitoraggio dei costi è quindi un indicatore vicino alla sostenibilità. “E se le aziende pianificano i costi e monitorano l’impatto finanziario lungo il percorso, dovrebbero essere in grado di stimare anche il proprio impatto ambientale”, ha spiegato Vogels.

Cloud, sicurezza, AI e anche il futuro del computing, restano i temi chiave dell’evento, anche se i riferimenti nei keynote al quantum hanno rappresentato solo ‘la punta dell’iceberg’. Aws lavora da anni allo sviluppo del calcolo quantistico; nel 2019 ha inaugurato l’Aws Center for Quantum Computing in collaborazione con Caltech in particolare per lo sviluppo dell’hardware, mentre le novità in occasione di Aws re:Invent hanno riguardato in particolare il tema “caldo” delle tecniche di correzione degli errori.

Peter DeSantis Aws
Peter DeSantis, Svp Aws Utility Computing

I più importanti annunci di day 1 nell’intervento di Peter DeSantis, Svp Aws Utility Computing, hanno riguardato l’attenzione su Amazon One Enterprise come servizio di identificazione basato sul palmo della mano, che consente alle aziende di fornire un’esperienza veloce, comoda e senza contatto per i dipendenti e altri utenti autorizzati ad avere accesso a luoghi fisici, così come a risorse software protette come dati finanziari e record HR. Oltre a questo, hanno rubato la scena le innovazioni e le soluzioni in ambito serverless. Gli annunci si basano sul lavoro di Aws per aiutare i clienti a gestire i dati, scalare, e semplificare le operation, in modo che possano concentrarsi sull’innovazione senza spendere tempo e sforzo per il provisioning, la gestione e la scalabilità dell’infrastruttura dati.

Ampio spazio inoltre è stato dato anche all’estensione della partnership con Salesforce. Per la prima volta vengono proposte soluzioni Salesforce su Aws Marketplace, così da consentire una gestione senza soluzione di continuità dei dati tra Salesforce e Aws. Inoltre Salesforce supporta ora Amazon Bedrock, un servizio completamente gestito che rende disponibili i foundation model (FM) delle principali aziende produttrici di modelli AI attraverso una singola application programming interface (Api), come parte della strategia di Salesforce verso un ecosistema di modelli aperti.

Gli annunci più importanti e di richiamo sono quelli declinati direttamente dal Ceo, Adam Selipsky, e da Swami Sivasubramanian, vice president Data and AI di Aws in day 2.
In primis, anche Aws entra nel mercato dell’AI per i workload business e con Amazon Q propone un assistente basato su intelligenza artificiale generativa (IA) progettato per l’ambiente lavorativo e personalizzabile in base alle esigenze dei clienti. E’ basato su repository di informazioni, codice e sistemi aziendali dei clienti integrati ovviamente dal sapere di Amazon Q che può così fornire informazioni e consigli per ottimizzare task, accelerare la presa di decisioni e la risoluzione di problemi, nonché per stimolare la creatività e l’innovazione sul luogo di lavoro.

Adam Selipsky Aws
Adam Selipsky, Ceo Aws

Si conferma inoltre il trend per cui sono i singoli hyperscaler e “riprogettare” su misura degli specifici utilizzi i chip. Vale anche per Aws con i sistemi Graviton4 e Trainium2 ricalibrati in modo specifico per una migliore efficienza energetica in particolare nel training in ambito machine learning e per le applicazioni generative di intelligenza artificiale generativa.

Novità anche per quanto riguarda uno dei servizi cloud più conosciuti e ‘antichi’ offerti da Aws, ovvero lo storage di Amazon S3. La nuova declinazione Express One Zone si presenta come una nuova classe di archiviazione storage ad alte prestazioni e single-zone, pensata per offrire un accesso dati coerente e con latenza di pochi millisecondi per le applicazioni dei clienti più sensibili a questo elemento. Si tratta di una proposta di archiviazione object storage su cloud con velocità di accesso ai dati fino a 10 volte più veloci più bassa e costi di richiesta accesso fino al 50% inferiori rispetto ad Amazon S3 standard, da qualsiasi Availability Zone Aws, all’interno di una regione Aws.

In ultimo, Aws ha presentato nuove integrazioni per connettere e analizzare i dati in modo rapido e facile, senza la necessità di costruire e gestire complesse pipeline di estrazione, trasformazione e caricamento (Etl). Parliamo quindi di Amazon Aurora PostgreSQL, Amazon DynamoDB e Amazon Relational Database Service for MySql con Amazon Redshift che semplificano il collegamento e l’analisi di dati transazionali provenienti da vari database relazionali e non relazionali in Amazon Redshift.

Swami Sivasubramanian Aws
Swami Sivasubramanian, VP Data e AI, Aws

Durante il terzo giorno ha guidato il calendario dei lavori la presentazione di Swami Sivasubramanian relativa ad Amazon Bedrock, per estendere la scelta dei modelli e facilitare sviluppo e scalabilità di applicazioni di intelligenza artificiale generativa (AI) personalizzate per le proprie aziende. Amazon Bedrock, lo ricordiamo, è il servizio  gestito che offre accesso a una scelta di large language model (Llm) di punta e foundation model (FM) di AI21 Labs, Anthropic, Cohere, Meta, Stability AI e Amazon, insieme a un ampio set di funzionalità di cui i clienti necessitano per costruire applicazioni AI generative, semplificando lo sviluppo e supportando la privacy e la sicurezza.
Mentre Amazon Sagemaker guadagna cinque nuove funzionalità per accelerare la creazione, l’addestramento e la distribuzione di large language model e altri foundation model. SageMaker semplifica e velocizza il processo per le organizzazioni che desiderano costruire, addestrare e distribuire modelli di machine learning che alimentano vari casi d’uso di intelligenza artificiale generativa.
Per esempio Amazon Sagemaker HyperPod riduce i tempi di addestramento dei foundation model fino al 40% fornendo un’infrastruttura appositamente costruita per l’addestramento distribuito su scala, Sagemaker Inference che riduce i costi di implementazione dei foundation model del 50% in media e la latenza del 20% in media ottimizzando l’uso degli acceleratori, e ancora Sagemaker Clarify aiuta invece a valutare e selezionare rapidamente i foundation model secondo parametri che supportano l’uso responsabile dell’AI e le funzionalità e con Sagemaker Canvas si accelera la preparazione dei dati utilizzando istruzioni in linguaggio naturale e la costruzione di modelli utilizzando i foundation model in pochi passaggi.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: