L’analisi dei dati è alla base di ogni progetto di trasformazione digitale e consente di indirizzare correttamente il business, grazie alla possibilità di compiere scelte “informate”. Vale per le aziende, ed è facile immaginare anche quanto sia importante per un istituto come Istat che offre diverse fotografie del Paese ed è oggi il maggiore istituto di statistica a supporto dei cittadini e dei decisori pubblici italiani.

Il contesto e il problema

Nel tempo è cambiato sensibilmente l’utilizzo delle fonti dati, se ne sono rese disponibili molte di più, a rendere però anche più complesso lo scenario. Non solo quindi dati provenienti da censimenti e indagini svolti direttamente dall’Istituto – o comunque dati prodotti da realtà di statistica pubblica e privata già orientati ed indirizzati dal punto di vista metodologico e della qualità in una certa direzione – ma anche dati da fonti come Web, social media, molto grezzi, ed in grado di portare valore solo dopo la necessaria sistematizzazione.

Anche Istat oggi si muove lavorando con big data e data lake impegnativi. Nel tempo matura quindi il bisogno di un linguaggio comune ai diversi dipartimenti, per evitare incomprensioni nell’analisi e favorire nuove modalità di integrazione dei dati. Istat vede come necessario riaggregare le informazioni per tematiche, associando i dati a fonti esterne per migliorare l’estrazione di nuovi insight.
Così già nel 2016, l’Istituto decide di avviare un programma in questa direzione; “riprogetta l’output” con l’obiettivo di migliorare anche la qualità delle statistiche esistenti contribuendo all’ampliamento dei fenomeni misurati.

La soluzione

Istat si affida oggi a Denodo per le soluzioni di data virtualization, ma si è già impegnata a definire il nuovo framework tecnologico come esito di un processo della statistica ufficiale avviato a livello europeo da tutti gli istituti e ha sviluppato in primavera un Register-based Analytics Framework (Raf, con Tibco), per valorizzare il contenuto informativo da rendere poi disponibile.

Nello specifico oggi la proposta di data virtualization di Denodo, (Denodo Platform) prevede uno strato di virtualizzazione del dato in modo da creare un unico punto di accesso alle informazioni e superare le rigidità di scambio e manipolazione dei dati. Ma l’architettura è funzionale anche a rendere più agili tutte le fasi del ciclo di vita dei dati stessi. Quindi la loro raccolta, ma anche la validazione, la manipolazione e la diffusione. Proprio lo strato di virtualizzazione permette di disaccoppiare utenti/applicazioni dalle attività di migrazione e consolidamento, lasciando integrate governance e semantica.

I vantaggi

I primi benefici sono dettagliati così da Massimo Fedeli, chief information officer di Istat: “Grazie all’introduzione di uno strato di virtualizzazione, riusciamo a superare le rigidità nella diffusione e nel trattamento dei dati, concentrando inoltre tutte le azioni di data governance e monitoraggio della qualità dei dati nell’unico punto d’accesso disponibile.

Massimo Fedeli, Cio di Istat
Massimo Fedeli, Cio di Istat

Dopo aver impostato l’infrastruttura, il primo servizio basato su Denodo è risultato operativo in un solo mese: una rapidità di risposta fondamentale per ottimizzare e valorizzare la grande quantità di informazioni che riceviamo”.

L’approccio di Denodo punta ad evidenziare e considerare tutte le dimensioni che incidono sui dati (culturale, organizzativa e tecnologica), per una maggiore consapevolezza sul dato, che si rivela poi l’elemento chiave dell’estrazione del valore stessa. “Non basta avere le informazioni per garantire che siano utilizzate nel modo migliore né, come caso limite, che se ne conosca addirittura l’esistenza – spiega Andrea Zinno, data evangelist di Denodo – e la data virtualization conferisce agilità a questo processo: permette di concentrarsi sull’uso e sul significato dei dati, prendendosi cura di tutti quei tecnicismi che sono un extra-lavoro rispetto al concentrarsi sui dati e generare valore a partire da essi”.

Andrea Zinno, evangelist Denodo
Andrea Zinno, data evangelist Denodo

Framework e nuovo approccio sono già implementati in Istat su diversi casi d’uso. Per esempio la rilevazione dei prezzi al consumo (determinante per la misura dell’andamento dell’inflazione). Mentre prima si trattava di attività effettuata attraverso operatori in visita ai punti fisici di vendita della Gdo, oggi i dati vengono inviati a Istat direttamente dai sistemi dei distributori, con sensibile diminuzione sull’impatto economico dei costi della ricerca ma anche una qualità del dato a disposizione più elevata ed informazioni più tempestive.

Ottimizzazione dei costi e l’apertura di nuove opportunità di valorizzazione dei dati basate sulle potenzialità dei big data gli ulteriori vantaggi portati dalla definizione del nuovo framework e dalla soluzione di data virtualization. Denodo potrà rendere possibile, in modo graduale, la gestione delle oltre 200 fonti eterogenee utilizzate dall’Istituto.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: