“Le innovazioni tecnologiche sembrano da una parte regalare tempo, dall’altra innalzare il livello di frenesia. Allo stesso tempo è difficile pensare di crescere rinunciando ad utilizzarle. Bisogna governarle”. Federico Suria, country manager Enterprise Sales di Dell Technologies Italia e Filippo Ligresti, VP & general manager Commercial Sales, fanno proprio il pensiero introduttivo con cui l’attrice Serena Autieri, moderatrice d’eccezione, apre i lavori condividendo con i manager il palco di Dell Technologies Forum (1.500 i presenti) al Centro Congressi Stella Polare di Rho (MI).
Ligresti prosegue: “Permettere una Real Transformation (claim dell’evento, ndr), partnership reali e progetti innovativi abilitati dalla tecnologia è alla base della strategia di Dell Technologies” e Suria incalza “…ma non c’è trasformazione digitale sensata se non è anche sostenibile. Per questo i pilastri principali della nostra azione sono la promozione della sostenibilità e coltivare l’inclusione, trasformando la vita con la tecnologia“.
Un mantra sempre più condiviso dai top vendor che in casa Dell Technologies significa, sottolinea Suria, “avere un impatto sull’ambiente 10 volte positivo rispetto ai consumi, anche attraverso il riciclo del materiale elettronico (un miliardo di chili quelli convertiti dall’azienda) – uno dei tasselli del programma Legacy of Good attivo dal 2013 – con l’idea di innescare i processi di economia circolare“. Per proseguire:“C’è però bisogno di talenti che sappiano gestire e comprendere le tecnologie abilitanti, per indirizzare lo sviluppo”.
Il futuro del lavoro
Spetta a Ligresti presentare i numeri relativi alla ricerca di Institute for the Future (presentata in anteprima) dal titolo Future of Work: Forecasting Emerging Technologies’ Impact on Work in the Next Era of Human-Machine Partnerships basata sulle interviste a 4.200 leader aziendali (in 44 Paesi), con un campione rappresentativo anche di aziende italiane: “Le tecnologie IT saranno leva di progresso principale per i prossimi dieci anni. Una sorta di ombrello digitale va permeando il mondo in cui viviamo, ma quella tra uomini e macchine deve essere una partnership “responsabile”“. E Suria chiosa: “A dimostrazione della validità di questa tesi, oltre il 70% dei leader di business in Italia è convinto che la partnership persona-macchina aiuterà a superare i limiti umani sul posto di lavoro. Tuttavia, per far sì che questa trasformazione sia sostenibile, i temi della formazione della forza lavoro e della regolamentazione diventano fondamentali”.
Ligresti prosegue l’analisi: “Il 46% degli intervistati italiani è convinto che entro il 2030 la guida autonoma sarà una realtà, l’80% che cambierà profondamente l’utilizzazione del tempo, contando sulle soluzioni di automazioni. Ma soprattutto il 70% pensa che i lavoratori dovranno essere dei veri e propri esperti almeno nell’utilizzo della tecnologia (se non nel suo sviluppo) e saranno necessarie competenze specifiche nell’ambito AI per potere lavorare nelle aziende”. Tra i dati anche le richieste al Governo: “più della metà del campione italiano chiede alle istituzioni nuove policy a regolamentare il mondo del lavoro che cambia e le modalità in cui l’AI viene utilizzata“.
Il 76% dei leader d’azienda italiani non è favorevole all’utilizzo dei robot e delle macchine senzienti in grado di decidere come evolvere. Il controllo deve rimanere all’uomo. Sfide fondamentali ma sempre con l’uomo al centro. Le competenze digitali già oggi, ma ancora di più da qui al 2030, sono destinate a rappresentare un fattore dirompente. E per questo il 50% degli imprenditori pensa che sia importante “attrezzarsi in house” anche a partire dall’insegnamento del coding ai dipendenti.
Moulton, architetti di DT
Dell Technologies, in questo contesto è chiamata a fornire i pilastri tecnologici fondativi, ne parla Nigel Moulton, Global Cto, Converged Platforms and Solutions Division, che pone una serie di questioni: “Primo: tra le decine di tecnologie oggi già disponibili, viviamo ancora una fase di startupping, perché le utilizziamo in minima parte, a velocità ridotta rispetto alle possibilità che saranno date dalle convergenze innescabili con la loro integrazione. Secondo: bisogna prepararsi all’accelerazione sui processi, a scalare in velocità (il controllo sulle macchine attraverso la voce è un esempio concreto di quello che sta accadendo, proprio parlando di interazione uomo/macchina). Terzo: Chi investe prima nella giusta direzione, beneficerà per primo di ritorni dal valore esponenziale rispetto agli investimenti. Il quarto tema è cruciale: bisogna essere in grado di comprendere quali siano i tasselli fondamentali per l’evoluzione digitale nel proprio specifico business”.
Quattro i driver in grado di abilitare il percorso, secondo Moulton: AI (nei diversi suoi aspetti machine learning, deep learning e packet recognition), il cloud ibrido (su architetture software defined), la raccolta dei dati all’edge (sempre più esteso) e – quasi a confermare i numeri della ricerca – proprio la “modernizzazione” della forza lavoro. Due invece sono i passaggi obbligati: il primo riguarda un approccio inclusivo ma federato sulla sicurezza, il secondo la trasformazione applicativa per permetterne l’utilizzo in uno scenario multicloud, con Dell Technologies che, lato IT infrastructure, propone l’ingegnerizzazione e l’integrazione “trusted” delle appliances di computing e storage per la sicurezza di app e dati, e sul cloud in questi mesi estende in modo significativo la partnership con Microsoft, proprio per consentire lo spostamento “trasparente” dei carichi di lavoro e un ideale di “ambiente trusted” dall’edge al cloud. Non mancano gli esempi, due quelli che a noi sono parsi più significativi.
Policlinico Gemelli
Vincenzo Valentini è direttore del dipartimento di diagnostica per immagini, radioterapia oncologica ed ematologia del Policlinico Gemelli: “L’arte medica è un’arte a tre tempi – l’osservazione, la formulazione di un’ipotesi, il momento della scelta della cura – questi processi si incarnano già oggi nella digital transformation. La tecnologia offre una granularità di informazioni infinita, non solo a livello genico”. Pensiamo ai dispositivi wearable in grado di monitorare diversi parametri e restituire informazioni.
Prosegue però Valentini: “Fino a qui ci muoviamo però solo al primo livello di dati. Del secondo livello fanno parte, per esempio, quelli evidenziati da una normale Tac, che rappresenta il tumore come una nuvola di numeri”. La lettura della loro periodicità, l’individuazione di un frattale che possa descrivere la forma del male, la possibilità di sequenziare questi numeri significa aggiungere alle informazioni di primo livello almeno 200 variabili di secondo livello. Unire dati significativi, generare dei cluster, attivare sistemi di pattern recognition permette di accedere a fonti di dati e informazioni che aiuteranno in quello che comunque è un dovere del medico e significa, spiega Valentini, “imparare a gestire le probabilità“. AI e machine learning sono supporti indispensabili per le decisioni.
Il Policlinico Gemelli, con le diverse evoluzioni tecnologiche cerca da sempre di tracciare i dati granulari. “Il nostro giacimento di petrolio (dati) – spiega Valentini – a giugno 2018 equivaleva a circa 580 milioni di informazioni granulari su milioni di pazienti, doveroso cercare quindi relazioni tra i dati e amplificazioni a supporto dei meccanismi decisionali, con l’ambizione di arrivare idealmente a generare un’idea di twin avatar dei pazienti in grado di illustrarne la storia, il funzionamento degli organi, le criticità. Una sfida di sicuro importante, della quale è essenziale comprendere quali siano le possibilità in termini di scalabilità, resilienza e sostenibilità soprattutto. Servono figure nuove in questo contesto, data scientist della conoscenza che sappiano confrontarsi con i dati perché comunque la tecnologia è virtuosa solo al servizio della conoscenza e la conoscenza al servizio del paziente“.
Fca Chrysler Automobiles
“L’esperienza con Dell Technologies nasce nel 2015 – esordisce Sara Bergamo, Ict head of Business Analytics Emea per Fca Chrysler Automobiles – quando Fca decide di iniziare a lavorare al data lake aziendale”. Fca Chrysler inizia quindi ad alimentarlo con le informazioni disponibili sui clienti, raccolte anche attraverso i siti Web e le intranet di vendita e assistenza, con uno sforzo di integrazione di dati eterogenei da fonti eterogenee. Prosegue Bergamo: “Scegliamo di lavorare con Pivotal HD, Hadoop, e iniziamo a gettare le prima fondamenta per gli analytics, ma già nel 2016 decidiamo di buttarci in un progetto di advanced analytics sfruttando machine learning e data science in un primo progetto di forecasting sulla supply chain“.
Fca Chrysler quindi decide di investire ulteriormente su Pivotal, prima di tutto per quanto riguarda le competenze inviando i propri data scientist a Dublino per impostare con le persone Pivotal il progetto e definire un framework di approccio alle richieste. Non sempre gli obiettivi precisi emergono subito ma prendono poi forma sulla scorta dell’esperienza, mentre le richieste sono in continua evoluzione.
Spiega Bergamo: “Abbiamo per questo valutato la metodologia ‘agile’, adottato Pivotal 3 per tracciare le storie e definire lo scoring, tenendo sotto controllo investimenti e sforzi economici complessivi. Abbiamo quindi imparato ad affrontare il test programming, lavorato al test driver development con due persone su una workstation di cui una scriveva i test e l’altra sviluppava codice robusto pronto per il versioning to versioning. Dopo sei mesi capiamo che siamo nella giusta direzione. Adottiamo un’appliance di Pivotal e con Pivotal Cloud Foundry sviluppiamo Web application con integrati analytics evoluti“.
Tutti i progetti nuovi ora convergono ad arricchire il layer di dati con informazioni provenienti da tutti i dipartimenti. Bergamo: “E’ servito ad abbattere i silos dipartimentali e a innescare collaborazioni estese per approdare a una visione più ampia. Anche perché se non si governa il dato non si governa l’intera azienda”.
Nel 2017/2018 Fca Chrysler Automobiles definisce la propria strategia per il cloud e oltre a migrare il data lake in cloud si sceglie di cambiare il DB e scegliere Greenplum DB. Bergamo: “E’ una scelta che ora ci permette di fornire in tempo ai clienti le informazioni che ci richiedono, all’inizio della giornata lavorativa. Da qui il passo oltre. L’idea è pensare al modo di integrare il data lake con il data warehouse in una visione unitaria, approdare quindi ad un layer dati unico per tutta l’azienda in grado di fornire supporto ai progetti sia di BI tradizionale sia a veri e propri lavori di data science basati anche su Web app. In undici mesi il progetto è partito ed atterrato per oltre un milione di righe di codice, con l’aiuto da Pivotal per la parte di tuning, sia infrastrutturale sia applicativo, soprattutto con l’obiettivo di migliorare l’efficienza delle query”.
© RIPRODUZIONE RISERVATA