La crescita esponenziale dei log negli ambienti cloud-native e multicloud ha messo in crisi i modelli tradizionali di gestione dei dati. I costi lievitano, i tempi di accesso si allungano e la frammentazione degli strumenti impedisce ai team IT di avere una visione coerente sullo stato di salute delle applicazioni e dei servizi. In questo scenario, le aziende italiane si trovano a dover conciliare esigenze spesso in tensione tra loro: accelerare sulla modernizzazione applicativa, contenere i costi operativi e valorizzare competenze che, nella maggior parte dei casi, restano limitate a pochi specialisti.
Dynatrace propone una risposta a queste sfide con un approccio che punta sull’unificazione di tutti i dati legati all’ “osservabilità” — log, metriche, tracce, dati di sicurezza e di business — all’interno di un’unica piattaforma alimentata dall’intelligenza artificiale. Un cambio di paradigma che promette di democratizzare l’accesso ai dati, abbattere i silos e ridurre drasticamente i tempi di intervento. Ne parliamo con Alessandro Amorini, Sr Manager Solutions Engineering di Dynatrace.
Superare i limiti legati alla frammentazione dei dati
Il punto di partenza è una diagnosi chiara. La crescita dei log negli ambienti distribuiti è tale da rendere insostenibile (e inefficaci) l’approccio basato su strumenti verticali, ciascuno specializzato su un singolo tipo di dato. Il risultato è una proliferazione di silos che impedisce ai team di avere una visione complessiva e coerente dell’intero contesto applicativo. “E sì, sicuramente l’errore più frequente è proprio di disporre di questi dati in forma frammentata – esordisce Amorini –. Vuol dire tenerli in diversi sistemi specializzati che non permettono però di avere una visione concorde nel contesto del servizio IT o dell’applicazione erogata”. È un problema che Dynatrace ha intercettato per tempo, comprendendo che la crescita esponenziale dei dati avrebbe richiesto “un approccio completamente diverso rispetto a quello tradizionale”. “Per troppo tempo – riprende Amorini – ci si è basati su un meccanismo di storicizzazione dei dati che richiedeva l’intervento umano degli operatori che avrebbero dovuto gestire le informazioni, fare delle query, conoscere le sintassi, e quindi dedicare tempo ed energie ad una mole di lavoro manuale incommensurabile”. A questo si è aggiunta la necessità di gestire schemi, indici, spostare i dati da storage più costosi a meno costosi. Un modello operativo che, oltre a essere inefficiente, rallenta qualsiasi attività di analisi e di risposta.
La risposta di Dynatrace è stata ripensare tutto da zero con la piattaforma Grail, costruita attorno a un modello dati unificato che raccoglie “non solo dati di log ma tutti i dati di osservabilità, di business, di sicurezza, in modo che chi deve poi intraprendere delle azioni abbia tutto lì pronto e possa intervenire immediatamente”. I dati vengono messi in relazione tra loro e contestualizzati, così che “anche un sistema automatico basato sull’intelligenza artificiale, possa arrivare direttamente a capire qual è la causa del problema”. Il nodo, in sintesi, è chiaro: “l’obiettivo di Dynatrace è proprio superare la frammentazione dei dati che crea dei silos, e promuovere la collaborazione dei team”.
Troubleshooting, governance e automazione: i benefici concreti
Una piattaforma unificata, come quella proposta da Dynatrace ha ricadute operative molto concrete su chi ogni giorno deve garantire la continuità dei servizi digitali. Amorini articola i vantaggi su tre direttrici principali.
La prima è il troubleshooting. “Nel momento in cui i dati sono storicizzati in un’unica piattaforma unificata— metriche, tracce, log, che sono i classici pillar dell’osservabilità, ma anche le loro relazioni, quindi la topologia specifica del contesto dei clienti – le azioni di troubleshooting sono molto più rapide”. Il vantaggio è strutturale: “Nel momento in cui è possibile leggere in questo modo un dato, è anche possibile capire quale problema ha l’utente, seguire tutta la catena automaticamente fino alla query e al layer infrastrutturale, con una drastica riduzione dei tempi di intervento”.
La seconda direttrice è la governance. Disporre di un’unica sorgente dati consente ai diversi stakeholder aziendali di lavorare sullo stesso patrimonio informativo. E qui entrano in gioco i vantaggi delle interrogazioni in linguaggio naturale: “Non c’è bisogno che l’utente business – magari non sa utilizzare espressioni regolari o fare query complesse – impari a farlo. Basta che chieda se ci sono dei problemi, quali sono i servizi impattati, e automaticamente l’intelligenza artificiale generativa della nostra piattaforma dà le risposte”. Il risultato è “una governance e un’adozione espansa” della piattaforma a livello aziendale. Approccio che ha già prodotto risultati documentabili.
La terza direttrice è l’automazione, con un’attenzione particolare alla supervisione umana. Amorini è chiaro: “Per noi l’automazione non significa rinunciare alla supervisione umana, non la intendiamo demandata a un’entità programmata, per quanto sia in grado di fare bene, perché sempre di un’entità basata su AI si tratta, e come tale può essere soggetta ad allucinazioni e deve essere controllata”.

L’orizzonte, sottolinea Amorini, è quello di operazioni autonome o semi-autonome: “Le persone si focalizzano nel definire obiettivi, nel controllare gli output di questi modelli, ma tutto è strettamente deterministico. Se non ci si basa su dati deterministici con causalità precise al loro interno, non è possibile approdare a risultati corretti poi con i modelli di intelligenza artificiale”.
Contenimento dei costi e semplificazione operativa
Per le organizzazioni italiane, la trasformazione tecnologica si gioca anche sul piano del contenimento dei costi e della semplificazione operativa. Dynatrace affronta il tema con una scelta architetturale precisa: “la separazione tra storicizzazione e processamento del dato”, spiega Amorini. “E’ possibile conservare i dati anche fino a 10 anni magari senza interrogarli mai, con un significativo risparmio rispetto a una soluzione che richiede di pagare per lo storage, indipendentemente dall’uso. Il processamento invece avviene nel momento in cui il dato entra in gioco per fare delle indagini specifiche, ma anche in questo caso il dato resta pronto, immediato, disponibile, senza dover reindicizzare o fare degli schemi specifici”.
Il risultato si traduce in vantaggio: “Zero effort di manutenzione da parte degli utenti”. I risultati sul campo confermano l’approccio.
Amorini richiama il caso di clienti che “hanno riportato anche il 50% di saving nella migrazione sulla piattaforma”. Un’ottimizzazione, precisa, che ha una “doppia natura: da un lato il risparmio derivante dalla separazione tra storage e processamento, dall’altro la riduzione dei costi operativi di gestione”. In gioco, è evidente, ci sono anche i vantaggi legati al consolidamento delle soluzioni. “L’adozione di tecnologie cloud-native ha generato un’esplosione di dati. Il consolidamento permette di avere subito la risposta che serve senza dover fare un salto su “n” altri strumenti per capire il significato del dato”. Per le imprese che stanno accelerando su cloud e AI, il vantaggio è duplice: meno strumenti da gestire e tempi di reazione più rapidi.
I vantaggi dell’intelligenza artificiale
Uno dei nodi critici nell’adozione dell’osservabilità diffusa è poi la dipendenza da competenze altamente specialistiche. Le regex, per esempio — espressioni regolari utilizzate per interrogare le basi dati di log —, rappresentano una barriera d’ingresso significativa per la maggior parte degli utenti aziendali. Amorini spiega come Dynatrace sia riuscita a indirizzare il problema: “Le regex sono delle espressioni molto complesse per interrogare i dati che richiedono un background specialistico. Non è possibile spiegare a tutti i clienti come usare questa sintassi, si perderebbe tantissimo tempo”. La soluzione oggi passa per l’interazione in linguaggio naturale, resa possibile dalla piattaforma AI integrata. In occasione dell’evento di Las Vegas dello scorso gennaio, l’azienda ha presentato Dynatrace Intelligence, che “fonde al suo interno l’intelligenza artificiale, il determinismo della piattaforma — che sfrutta i dati messi in un unico storage, unificati e messi in contesto — con la parte agentica”. E l’interazione oggi è semplificata e possibile in linguaggio naturale con l’utilizzo di Dynatrace Assist, annunciato a marzo.
Il funzionamento è modulare: quando l’utente pone una domanda, l’intelligence di Dynatrace determina se la richiesta riguarda il troubleshooting, il forecast di trend, la governance o l’integrazione con piattaforme esterne, e instrada la query verso “agenti AI specializzati” nel dominio di competenza specifico. “Questo permette di democratizzare ed estendere proprio l’adozione della piattaforma a tutte le aree aziendali”, spiega Amorini. A rafforzare l’apertura dell’ecosistema, Dynatrace è tra le prime aziende poi a introdurre un Mcp server (Model Context Protocol) per consentire l’interrogazione dei propri dati tramite linguaggio naturale, “senza skill sofisticati come quelli necessari per le regex”. La fruizione del dato diventa così immediata “senza dover gestire indici e reidratazione del dato, e grazie a questo si ottiene subito il risultato in funzione degli use case”.
Oltre l’IT, l’osservabilità come ponte per il business
Amorini tiene a sottolineare un ultimo punto, che considera fondamentale per la visione complessiva di Dynatrace: “Nel modello dati unificato di Dynatrace, ci sono anche dati di business. Non c’è solo il dato IT”. La convinzione è che la coesistenza di dati IT e di business nello stesso ambiente consenta di superare un gap storico tra le due funzioni aziendali. “Disporre di dati IT e di business nel medesimo punto permette di superare il problema generato dalle soluzioni frammentate e dai dati frammentati”, conferma Amorini. Il vantaggio è tangibile e immediato: “Il business e l’IT condividono lo stesso data set e riescono a capire e capirsi. I dati di business correlati a quelli IT promuovono la collaborazione tra i team business e IT, e permettono di dare priorità agli investimenti e automatizzare le misure correttive in base all’impatto sul business”.
Si tratta, in definitiva, di eliminare quella condizione sfavorevole per cui le funzioni “non si parlano o non si intendono”. Perché nell’approccio Dynatrace, conclude Amorini, “il dato di business è presente dentro gli stessi dati di osservabilità che servono all’IT”: non è un’aggiunta, ma fa parte della componente nativa della piattaforma. Un principio che riflette una visione dell’osservabilità non più confinata al perimetro IT, ma estesa all’intera catena del valore aziendale.
Per saperne di più scarica il whitepaper: Massimizza i risultati aziendali con una gestione moderna dei log
Non perdere tutti gli approfondimenti della room: AI Observability per aziende intelligenti
© RIPRODUZIONE RISERVATA















































