Ultimo appuntamento dell’anno quello di New York per Intel che in occasione dell’evento AI Everywhere annuncia l’evoluzione del portfolio AI, presenta nuovi processori, e si prepara ad estendere dall’edge, ai pc, sulle reti, nei data center e fino al cloud i benefici del calcolo potenziato dall’intelligenza artificiale. Il 2024 sarà per l’azienda un anno ancora di sfide, le maggiori proprio nel comparto degli annunci di questi giorni. Lo sa Pat Gelsinger, Ceo di Intel, che le raccoglie e inquadra bene il tema dei cambiamenti portati dall’AI anche nel mercato in cui opera. In un contesto quindi in cui la “centralità” di Intel non è più così scontata come solo fino a pochi anni fa.
“Si prevede che l’innovazione nel campo dell’AI possa accrescere l’impatto dell’economia digitale fino a rappresentare un terzo del Pil globale  – spiega il Ceo -. L’impegno di Intel è sviluppare tecnologie e soluzioni per consentire di integrare e implementare l’AI nelle applicazioni, nel cloud, e in misura sempre maggiore localmente all’edge, ovunque i dati vengono generati e utilizzati”. 

Pat Gelsinger
Pat Gelsinger, Ceo di Intel

Il calcolo all’edge, appunto, è tra i segmenti in più rapida crescita per un mercato complessivo capace di una spesa prevista di 445 miliardi di dollari entro la fine 2030, all’interno del quale l’intelligenza artificiale è il carico di lavoro in più rapida crescita.

Si parla quindi di piattaforme, soluzioni ed ecosistemi aperti e si arriva agli annunci del giorno con in cima Intel Core Ultra che per Intel “dà il via all’era dell’AI pc” – ma sarebbe da prestare attenzione ai competitor che sembrano assecondare nella scelta delle Cpu per i dispositivi un’onda non più Intel-centrica – e Intel Xeon AI accelerated di quinta generazione per le aziende. Oltre alla disponibilità già di entrambi i processori, a fine evento Gelsinger ha anche mostrato per la prima volta un wafer dell’acceleratore AI di nuova generazione per il deep learning e modelli di AI generativa. Sarà disponibile dal prossimo anno e parliamo di Intel Gaudi 3, che con la crescente domanda di soluzioni di intelligenza artificiale generativa, dovrebbe consentire ad Intel di guadagnare una quota maggiore del mercato degli acceleratori nel 2024.

Intanto, secondo Boston Consulting Group, gli AI pc costituiranno l’80% del mercato entro il 2028 e introdurranno nuovi strumenti nel modo in cui lavoriamo, impariamo e creiamo. A partire certo dagli aggiornamenti applicativi necessari. Al riguardo Intel collabora con oltre 100 aziende software che sviluppano applicazioni potenziate dall’intelligenza artificiale che dovrebbero cambiare l’esperienza d’uso dei PC. Saranno queste, di fatto, le applicazioni a  funzionare meglio su un pc con Intel Core Ultra, per esempio, per Adobe Premiere Pro con prestazioni migliori del 40% rispetto alla concorrenza Amd (vengono riportati i benchmark PugetBenchPremier Pro Standard v24.1 in un test con Cpu Intel Core Ultra 7 155H paragonata ad Amd Ryzen 7 7840U).

Bisognerà invece aspettare il 2024 in Italia per avere i primi pc così equipaggiati; oggi infatti sono disponibili solo presso rivenditori selezionati negli Stati Uniti ed arriveranno più avanti in oltre 230 laptop e pc worldwide. I tratti distintivi che vale la pena di ricordare di Intel Core Ultra riguardano certo la potenza di calcolo della Cpu, la grafica, l’efficienza energetica per una maggiore durata della batteria e, chiaro, le funzionalità AI. Per Intel l’AI pc sarebbe “la più grande trasformazione dell’esperienza d’uso del pc da 20 anni a questa parte”, paragonabile all’arrivo di Intel Centrino che consentì la connessione senza cavi con il Wifi. Intel Core Ultra parla addirittura del “più grande cambiamento di architettura di Intel negli ultimi 40 anni”.

Cambiamento da individuare dalla disponibilità interna di un acceleratore AI integrato in un chip di Intel, la Neural Processing Unit (Npu), per consentire un livello di accelerazione AI a basso consumo energetico con un’efficienza di 2,5 volte maggiore rispetto alla generazione precedente (Gpu Intel Core i7-1370P).
E si ragiona in termini di migliore efficienza e vantaggi anche su Intel Xeon di quinta generazione, accelerato per l’AI in ogni core e con la possibilità di ridurre i costi complessivi di esercizio. Questo perché gli acceleratori AI integrati in Xeon, insieme al software ottimizzato e alle funzionalità di telemetria migliorate, consentono un’implementazione più gestibile ed efficiente di carichi di lavoro di rete e periferici.

Fase del processo di produzione di Intel Xeon di V generazione
Fase del processo di produzione di Intel Xeon di V generazione

Sono pensati in particolare per i workload di service provider, telecomunicazioni, reti di distribuzione di contenuti e settori verticali tra cui retail, sanità e manifatturiero. Senza eccedere nei tecnicismi, è previsto un incremento medio delle prestazioni del 21%. Soprattutto, con la stessa potenza termica il nuovo processore consentirà un aumento del 36% delle prestazioni per Watt. Il risparmio maggiore in termini di Tco è per gli utenti che seguono un tipico ciclo di aggiornamento di cinque anni (riduzione fino al 77%).

Tra le aziende che hanno già testato Intel Xeon di quinta generazione con workload AI vi sono Ibm e Google. Sulla piattaforma Watsonx.data i processori Intel Xeon di quinta generazione hanno raggiunto un throughput delle query fino a 2,7 volte migliore rispetto ai processori Xeon della generazione precedente. Google Cloud ne avvia l’utilizzo dal prossimo anno, ma in testing segnala che Palo Alto Networks ha registrato un aumento delle prestazioni di due volte superiore nei suoi modelli di deep learning di rilevamento delle minacce utilizzando l’accelerazione integrata in Xeon di quarta generazione tramite Google Cloud.

Inoltre, per rendere le tecnologie hardware AI accessibili, Intel progetta ottimizzazioni nei framework AI utilizzati dagli sviluppatori (come PyTorch e TensorFlow) e offrire librerie fondazionali (tramite OneApi) per la portabilità del software e l’efficienza del codice sulle diverse piattaforme. Si tratta di riuscire a sfruttare l’accelerazione hardware per carichi di lavoro e soluzioni di intelligenza artificiale così da creare, ottimizzare e distribuire modelli di intelligenza artificiale su un’ampia gamma di target di inferenza.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: