L’intelligenza artificiale si propone come motore di trasformazione ma la velocità con cui viene adottata genera divari pericolosi tra il potenziale innovativo e le effettive capacità di controllo. È quanto emerge dal Zscaler ThreatLabz 2026 AI Security Report che fotografa uno scenario in cui le imprese globali si trovano esposte a rischi informatici di nuova generazione, alimentati proprio dalle tecnologie AI su cui stanno investendo.

Il report, elaborato dal team di ricerca ThreatLabz di Zscaler, poggia su una base dati importante: 989,3 miliardi di transazioni AI/ML generate da circa 9mila aziende attraverso la piattaforma Zscaler Zero Trust Exchange tra gennaio e dicembre 2025. Non si tratta dunque di proiezioni teoriche o scenari ipotetici, ma di un’analisi granulare del modo in cui l’intelligenza artificiale viene effettivamente utilizzata — e spesso non governata — negli ambienti aziendali reali. Un campione che offre una visione globale e concreta delle dinamiche in atto, dai volumi di traffico ai flussi di dati sensibili, fino alle vulnerabilità individuate nei sistemi di AI enterprise.

Corre l’adozione dell’AI, il controllo arranca

Il primo dato che colpisce è la velocità dell’adozione. L’utilizzo dell’AI è cresciuto del 200% nei settori chiave, con il comparto finanziario e assicurativo che si conferma il più attivo, rappresentando da solo il 23% dell’intero traffico AI/ML monitorato. Ma sono i settori Tecnologia e Istruzione a registrare i balzi più impressionanti, con incrementi anno su anno rispettivamente del 202% e del 184%. Eppure, questa corsa all’adozione non è accompagnata da un corrispondente rafforzamento delle strutture di governance. Molte aziende, rileva Zscaler, non dispongono nemmeno di un inventario di base dei modelli di AI attivi nei propri sistemi e delle funzionalità integrate nelle piattaforme in uso. In altre parole, non sanno con precisione dove i dati sensibili siano esposti, né quali modelli interagiscano con le informazioni aziendali più critiche. Una lacuna che porta la governance dell’AI a diventare, inevitabilmente, una priorità per i vertici aziendali.

I trend delle transazioni AI per vendor nel corso del 2025
I trend delle transazioni AI per vendor nel corso del 2025 (fonte: Zscaler ThreatLabz 2026 AI Security Report, 2026)

Sistemi compromessi in… 16 minuti

Se il quadro dell’adozione è preoccupante sul piano della governance, i risultati dei test di sicurezza lo sono ancora di più. Gli esperti di Zscaler hanno sottoposto i sistemi di AI aziendali a simulazioni di attacco in condizioni controllate, e i risultati parlano chiaro: il 100% dei sistemi analizzati mostra falle critiche. Il tempo medio necessario per ottenere la prima compromissione significativa è di appena 16 minuti, con il 90% dei sistemi violati in meno di un’ora e mezza.

Deepen Desai, Ciso di Zscaler
Deepen Desai, Evp Cybersecurity di Zscaler

Nel caso più estremo, le difese cadono in un solo secondo. “L’AI non è più semplicemente uno strumento di produttività, ma è diventata il principale vettore di attacchi autonomi a velocità automatica, perpetrati sia da gruppi cybercriminali che da criminali sponsorizzati dagli stati – spiega Deepen Desai, Evp Cybersecurity di Zscaler -. Nell’era dell’Agentic AI, un’intrusione può passare dalla scoperta allo spostamento laterale fino al furto dei dati nel giro di pochi minuti, rendendo obsolete le difese tradizionali”. Sono numeri che impongono un cambio di paradigma nel modo in cui si pensa alla sicurezza: gli attacchi possono ora scalare e adattarsi alla velocità delle macchine, non a quella umana. E con l’emergere dell’AI agentica — sistemi autonomi e semi-autonomi capaci di condurre operazioni complesse senza intervento umano — il rischio è destinato a crescere ulteriormente. ThreatLabz avverte che agenti AI saranno sempre più utilizzati per automatizzare ricognizione, sfruttamento delle vulnerabilità e movimento laterale all’interno delle reti aziendali.

La supply chain dell’AI nuovo bersaglio

L’ecosistema delle applicazioni che generano transazioni AI/ML è quadruplicato rispetto all’anno precedente, e supera le 3.400 unità. Questa esplosione rende complesso per le aziende mantenere una visibilità centralizzata su quali strumenti utilizzino modelli di intelligenza artificiale e su come questi interagiscano con i dati aziendali. Zscaler evidenzia come la supply chain dell’AI sia diventata un obiettivo primario per i criminali informatici. Le debolezze nei file dei modelli più diffusi possono essere sfruttate per spostarsi lateralmente verso i sistemi chiave dell’azienda, trasformando un componente apparentemente innocuo in un vettore di attacco. È una dinamica che ricorda quanto avvenuto negli scorsi anni con le supply chain software tradizionali, ma amplificata dalla pervasività e dalla velocità dell’AI.

AI embedded, rischio invisibile nelle piattaforme SaaS

Accanto alle piattaforme di AI standalone — ChatGpt, solo per fare un esempio, ha registrato 115 miliardi di transazioni nel 2025, Codeium 42 miliardi — il report pone l’accento su una fonte di rischio spesso sottovalutata: l’AI embedded, ovvero le funzionalità di intelligenza artificiale integrate direttamente nelle applicazioni e piattaforme SaaS di uso quotidiano. Queste funzionalità sono spesso attive di default, sfuggono ai filtri di sicurezza tradizionali e creano di fatto una porta secondaria attraverso cui i dati sensibili possono fluire verso i modelli AI senza alcun controllo. Tra le piattaforme analizzate, Atlassian è emersa come una delle principali fonti di attività di AI integrata, riflettendo l’ampio utilizzo di funzionalità potenziate dall’AI all’interno di strumenti come Jira e Confluence. Un aspetto che molte organizzazioni semplicemente non hanno ancora preso in considerazione nelle proprie policy di sicurezza.

Terabyte di dati verso l’AI, tesoro per il cybercrime

I numeri sui trasferimenti dati sono forse il dato più eloquente dell’intero report. Nel 2025, le aziende hanno riversato oltre 18mila terabyte di dati nelle applicazioni AI/ML, con un incremento del 93% su base annua. Per dare un’idea della scala, equivale a circa 3,6 miliardi di fotografie digitali. Strumenti come Grammarly e ChatGpt si sono trasformati nei repository di intelligence aziendale più concentrati al mondo. E la portata del rischio è resa evidente dai numeri: 410 milioni di violazioni delle policy di prevenzione della perdita di dati (Dlp) sono state registrate in relazione al solo ChatGpt, includendo tentativi di condivisione di codici fiscali, codice sorgente proprietario e persino cartelle cliniche. La governance dell’AI, dunque, non è più soltanto una questione di policy aziendali. È una necessità operativa immediata. Man mano che questi repository crescono, diventano obiettivi prioritari per operazioni di spionaggio informatico su scala globale.

Applicazioni AI ML con il numero più alto di violazioni alle policy DLP
Applicazioni AI/ML con il numero più alto di violazioni alle policy Dlp (fonte: Zscaler ThreatLabz 2026 AI Security Report, 2026)

 L’approccio di Zscaler

Di fronte a questo scenario, Zscaler propone un cambio di approccio radicale, fondato sull’architettura zero trust. I firewall tradizionali e le Vpn, sottolinea l’azienda, non sono in grado di proteggere ambienti AI dinamici, creando lacune di visibilità e punti ciechi nella sicurezza. Zscaler Zero Trust Exchange punta a contrastare le minacce potenziate dall’AI attraverso verifiche continue e accesso con privilegi minimi per eliminare le superfici di attacco, ispezione di tutto il traffico — compresi i dati crittografati — per bloccare le minacce in tempo reale, scoperta e classificazione automatica dei dati sensibili in tutti gli ambienti, segmentazione ottimizzata dall’AI per neutralizzare gli spostamenti laterali e AI predittiva per accelerare le operazioni di sicurezza. “Per vincere questa sfida, le aziende devono contrastare l’AI con l’AI, adottando un’architettura zero trust intelligente che blocchi tutti i potenziali percorsi d’attacco, indipendentemente dal tipo di aggressore”, aggiunge Desai. L’AI ha superato il punto in cui può essere trattata come un semplice strumento di produttività da gestire con le policy di sicurezza esistenti. Le aziende che non svilupperanno rapidamente una strategia di governance dell’IA integrata, supportata da architetture di sicurezza native e adeguate alla velocità delle minacce contemporanee, rischiano di trasformare il proprio vantaggio competitivo in una vulnerabilità sistemica. La posta in gioco con l’AI è alta.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: