Tappa di avvicinamento all’evento annuale di WithSecure, Sphere25, in primavera, l’incontro con Paolo Palumbo, vice president W/Intelligence dell’azienda, è occasione per fare il punto sul rapporto tra intelligenza artificiale e cybersecurity e relativi trend. Palumbo, in particolare, evidenzia, attraverso diversi spunti di riflessione, come il threat landscape sia del tutto rivoluzionato dall’AI che mostra una triplice valenza: strumento per il cybercrime che attacca, abilitatore digitale per chi si difende, ma anche “elemento di rischio” perché specifici utilizzi dell’AI, di per sé non malevoli, possono essere ad arte piegati ad incrementare gli elementi di rischio.
Esordisce Palumbo: “L’introduzione di ChatGpt nel novembre 2022 ha rappresentato un momento di svolta epocale. Se prima il machine learning era una tecnologia utilizzata dietro le quinte e poco considerata dall’utente finale – la stessa WithSecure utilizza il machine learning da oltre vent’anni per fronteggiare il volume crescente di minacce informatiche – con ChatGpt l’AI è stata ‘impacchettata’ in una forma accessibile a tutti attraverso il linguaggio naturale. Questo cambiamento ha di fatto rivoluzionato l’approccio al digitale, analogamente ma in maniera ancora più incisiva e veloce rispetto a quanto avvenuto prima con il Web e poi con il cloud computing”.  L’AI introduce nuove opportunità e sfide. Lo abbiamo visto: è strumento di difesa, di offesa e un rischio in sé, “per esempio nel caso del jailbreak di modelli AI, che possono essere utilizzati per manipolare l’output dei sistemi di intelligenza artificiale e generare codice malevolo”, specifica Palumbo.

Entriamo nei dettagli. Un esempio dell’uso dell’AI da parte del cybercrime è il caso del gruppo Storm-0817, che ha sfruttato modelli AI per effettuare debugging di malware (così da renderlo ancora più efficiente), ottimizzare infrastrutture server per attività criminali, tradurre profili Linkedin e la scrittura di codice per lo scraping di Instagram. Utilizzi che per loro natura possono sembrare “ancora di basso profilo” ma che proprio per questo possono  allarmare, perché potrebbero rappresentare la punta di un iceberg di utilizzi molto più ‘verticali’. Allo stesso tempo dimostrano anche la “democratizzazione nelle possibilità di azione del cybercrime, per cui anche attori non particolarmente sofisticati possono sfruttare strumenti avanzati per compiere attacchi informatici”. Anche un recente rapporto di Google sulla cybersecurity sollecita riflessioni. Gli attacchi sponsorizzati dai governi (Government-Backed Threat Actors, il tema del rapporto) e provenienti da Iran, Cina, Corea del Nord e Russia utilizzano l’AI per migliorare le tecniche di phishing, quelle di spionaggio, così come per studiare le possibilità di attacchi a infrastrutture critiche. “Il vero problema – tiene a sottolineare Palumbo – è che molte attività malevole potrebbero non emergere dalle analisi dei modelli pubblici, poiché gli attori più avanzati e competenti potrebbero usare modelli ‘privati’, inaccessibili agli strumenti di monitoraggio”.

L’AI al servizio dei deepfake ma anche strumento di difesa

“I deepfake minano alla base la credibilità di mezzi di comunicazione che un tempo erano considerati prove inequivocabili”, riprende Palumbo. Si aprono quindi nuove sfide per quanto riguarda il tema del fact-checking, ed “è al momento è difficile immaginare soluzioni al problema definitive”, anche perché proposte come quelle dei watermark digitali non escludono tutti i rischi e a loro volta possono essere manomesse sempre utilizzando l’AI. Stessi rilievi solleva l’idea di utilizzare le firme digitali sugli eseguibili perché di fatto non impediscono la diffusione di codice malevolo, ne garantiscono “l’autenticità”, ma non certo il fatto che si tratti di codice innocuo. Si allaccia quindi a questi temi quello chiave che riguarda la reale consapevolezza degli utenti. Come dimostra il caso del phishing per cui nonostante anni di sensibilizzazione, molte persone continuano a cadere vittime di truffe online, anche per il livello di sofisticazione raggiunto da queste minacce.

Paolo Palumbo
Paolo Palumbo, vice president W/Intelligence, WithSecure

Così come la cronaca di tutti i giorni aiuta a comprendere il potenziale dell’AI per chi attacca, non sono rari gli esempi legati anche alle possibilità di difesa. Con un rilievo però: il confine tra le due possibilità è sempre più labile, e anche un utilizzo di suo benevolo dell’AI, opportunamente studiato, potrà attivare nuovi casi d’uso in grado di far leva proprio sul suo potenziale ma a vantaggio di chi attacca”

L’AI trova applicazioni nella scoperta di vulnerabilità nei software e nelle infrastrutture. Per esempio strumenti come VulnHuntr sono stati sviluppati ad hoc per automatizzare la ricerca di falle nei sistemi. “Ma questo stesso è uno strumento che è facile capire come possa facilitare sia la difesa che, potenzialmente, l’offesa”. Vi sono poi in corso iniziative interessanti come l’AI Cyber Challenge (AIxCC). Negli Stati Uniti, il Darpa – l’agenzia di ricerca del Pentagono – ha lanciato l’AIxCC, come una sorta di competizione premiata con milioni di dollari per sviluppare modelli AI in grado di analizzare e proteggere infrastrutture digitali critiche.  In questo caso si tratta di scovare e correggere automaticamente vulnerabilità nel codice open source, ma è anche facile capire che una volta scovate da una parte possono essere ri-utilizzate, dall’altra possono essere “evolute”.

Il futuro degli attacchi AI-driven 

“E’ impossibile oggi per gli attori della security, da qualsiasi delle due parti stiano, pensare di non dovere fare i conti con l’AI” – ribadisce Palumbo in diversi passaggi-. Lo evidenziano anche diversi proof of concept. Gli ‘esperimenti’ Llm Morpher e BlackMamba dimostrano come gli attori malevoli stiano sperimentando l’uso dell’AI per generare codice malevolo in modo dinamico. Questi Poc, sebbene ancora rudimentali, suggeriscono che in futuro potremmo vedere attacchi completamente autonomi, con malware capaci di adattarsi in tempo reale alle difese dei sistemi target (e sfruttare l’agentic AI). Il caso Llm Morpher merita al riguardo uno specifico piccolo approfondimento.

Llm Morpher è un proof of concept che dimostra la possibilità di attacchi informatici basati sull’uso di Large Language Models (Llm) per generare codice malevolo in modo dinamico. L’idea alla base di Llm Morpher è la seguente: invece di scrivere direttamente codice dannoso in Python o in un altro linguaggio di programmazione, gli attaccanti scrivono istruzioni in linguaggio naturale e il programma invia queste istruzioni a un modello di intelligenza artificiale, come ChatGpt, per convertirle in codice eseguibile. E’ questo il momento in cui viene generato codice malevolo con l’Llm che trasforma le istruzioni in eseguibili e le restituisce all’attaccante. A questo punto il codice generato –  eseguito dinamicamente senza che di fatto nel modello sia presente in modo statico nel malware originale – presenta comunque il suo lato oscuro e fa danni. Il sistema è particolarmente pericoloso proprio perché il codice malevolo non è scritto direttamente nel programma originale, ma generato in tempo reale, e diventa più difficile per gli strumenti di sicurezza rilevarlo. Inoltre può essere modificato dinamicamente in base al contesto o alle risposte dell’Llm, rendendo gli attacchi più sofisticati e anche cybercriminali con competenze limitate possono sfruttare questa tecnica per creare malware avanzati.

Per quanto riguarda BlackMamba, invece, questi gli spunti di riflessione più importanti. Parliamo di un AI-Synthesized Polymorphic Keylogger, ovvero un malware che sfrutta modelli di intelligenza artificiale generativa per mutare il proprio codice ogni volta che viene eseguito, rendendo quasi impossibile il suo rilevamento da parte degli antivirus e degli strumenti di sicurezza tradizionali. A differenza dei malware statici, che possono essere identificati grazie alle loro firme digitali, BlackMamba non ha quindi una struttura fissa e il codice malevolo viene generato “su richiesta”, sfruttando un Large Language Model (Llm) come ChatGpt. Il rischio maggiore è legato al fatto che poiché il codice malevolo non esiste fisicamente fino al momento dell’esecuzione, gli strumenti di rilevamento basati su signature detection sono inefficaci. Un altro esempio, infine, è ViKing, un progetto accademico che dimostra come deepfake vocali generati dall’AI possano ingannare gli utenti, a un costo irrisorio anche per meno di un dollaro. Il rischio, dunque, cui abbiamo già fatto riferimento è proprio che deepfake e attacchi vocali erodano il concetto stesso di prova audio/video.

Geopolitica dell’AI, l’Europa in ritardo

L’AI è ormai diventata un asset strategico. Se gli Stati Uniti dominano con OpenAI e Google Gemini, e la Cina sviluppa modelli alternativi come DeepSeek, l’Europa rischia di rimanere ed è già indietro. La dipendenza tecnologica da infrastrutture extraeuropee (comunque in mano ad aziende statunitensi, anche se si parla di cloud sovrano) pone interrogativi sulla sovranità digitale del continente. Si muove qualcosa ma gli investimenti europei, come il progetto di un Large Language Model UE, sono ancora insufficienti rispetto ai miliardi stanziati dalle big tech americane anche se si può intuire che effettivamente la crescita di modelli open-source più accessibili potrebbe rappresentare un’opportunità per ridurre il gap.

“La difesa non ha scelta, l’AI è indispensabile”, conclude Palumbo. Deve essere utilizzata per contrastare minacce sempre più sofisticate. E con il giusto approccio, e framework adeguati (nell’immagine la proposta del Mit), queste tecnologie possono diventare strumenti chiave per la protezione delle infrastrutture critiche e la salvaguardia dei dati.
“WithSecure, in particolare, ha adottato un modello basato su Amazon Bedrock, che garantisce privacy e sicurezza dei dati aziendali”. E’ chiaro che per un utilizzo efficace dell’AI, tutte le organizzazioni debbano studiare attentamente le implicazioni legali e tecniche dell’integrazione di questi strumenti nei propri sistemi. Un compito difficile anche in relazione all’intrinseca “opacità” di questi sistemi. Se da un lato dobbiamo affrontare sfide come il bias nei modelli AI e la difesa della proprietà intellettuale, dall’altro l’educazione e la consapevolezza degli utenti rimangono elementi fondamentali per mitigare i rischi. Con uno spunto finale: “Del potenziale dell’AI nelle sfide cybersec oggi vediamo solo i primi accenni, l’accelerazione in corso determinerà rapidi e frequenti cambiamenti di scenario in tempi sempre più brevi”.

© RIPRODUZIONE RISERVATA

Condividi l'articolo: