Film, media, e in genere la letteratura nel suo complesso spesso ci lasciano immaginare l’intelligenza artificiale come una tecnologia che si rivolterà contro di noi e inizierà ad attaccare le persone da sola. La realtà attuale è ben diversa e, al contrario, sono gli umani che stanno attaccando i sistemi di AI

Lo racconta bene un nuovo rapporto pubblicato dal consorzio Sherpa. Lo studio è stato prodotto da F-Secure e dai suoi partner in Sherpa: un progetto finanziato dall’Ue nel 2018, fondato da 11 organizzazioni di 6 Paesi diversi, che studia l’impatto dell’intelligenza artificiale sull’etica e sui diritti umani.

Bernd Stahl, professore della De Montfort University Leicester e coordinatore del progetto Sherpa ne evidenzia la natura: “L’obiettivo del progetto è comprendere le conseguenze etiche e sui diritti umani dell’AI e dell’analisi dei big data per aiutare a sviluppare modi per affrontarli. Questo lavoro deve basarsi su una solida conoscenza delle capacità tecniche così come delle vulnerabilità, un’area cruciale di competenza che F-Secure offre al consorzio. Non possiamo avere conversazioni significative sui diritti umani, sulla privacy o sull’etica nell’AI senza considerare la cybersecurity. E come fonte affidabile di conoscenza della sicurezza, i contributi di F-Secure sono una parte centrale del progetto”.

Mentre l’AI continua a trovare nuove applicazioni nei più svariati ambiti, dalle auto a guida autonoma, ai sistemi di analytics sulle piattaforme informatiche, dai social network, alla sicurezza, il report rileva come nonostante gli attaccanti umani abbiano accesso alle tecniche di apprendimento automatico, oggi stiano concentrando la maggior parte dei loro sforzi sulla manipolazione dei sistemi di intelligenza artificiale esistenti, invece di creare nuovi attacchi sfruttando le tecnologie di apprendimento automatico.

In pratica il fine ultimo degli attaccanti sta diventando colpire i sistemi di intelligenza artificiale proprio per generare danni importanti e più difficili da individuare. E lo studio approfondisce proprio il modo in cui gli hacker possono abusare dell’AI, e dei sistemi informativi intelligenti. 
Per esempio gli attaccanti possono dare vita a sofisticate campagne di disinformazione e ingegneria sociale proprio a partire dalla manipolazione di queste tecnologie.

Andy Patel F-Secure
Andy Patel ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure

Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure, così commenta: “Alcune persone identificano erroneamente l’intelligenza artificiale con l’intelligenza umana, e penso che sia per questo che associano la minaccia dell’AI ai robot killer e ai computer fuori controllo. Al contrario gli attacchi umani contro l’AI avvengono in continuazione”.

Per esempio sono molto frequenti gli attacchi Sybil progettati per contaminare i sistemi di AI che le persone usano ogni giorno, come i sistemi di reputazione online. Prosegue Patel: “Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario”.

Ricordiamo che gli attacchi Sybil si verificano quando i sistemi di reputazione sono sovvertiti falsificando le identità di una persona in una rete p2p. Il nome è stato coniato nel da Brian Zill, ricercatore Microsoft proprio in relazione a un romanzo, Sybil appunto, del 1973 che raccontava di una donna a cui è stato diagnosticato un disturbo dissociativo dell’identità.

La pericolosità di questi attacchi è intuibile: si pensi per esempio alla manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti, oppure al loro utilizzo per il social engineering di individui in modo mirato, in grado effettivamente di mettere a rischio l’attendibilità delle identità digitali (e fisiche). 

Patel: “Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare”.

Il dato interessante da notare e proprio che se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi informatici, dall’altro emerge per certo che gli avversari stanno già attaccando e manipolando i sistemi di AI esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation e altro.

Una possibilità di utilizzo da parte degli hacker dell’AI, non come fine di attacco ma come mezzo proprio consisterà nell’aiuto che l’intelligenza artificiale potrà fornire per generare contenuti falsi.

E’ un tema interessante quello della fine di alcune professioni grazie o a colpa dell’AI. E il rapporto rileva come questa tecnologia abbia raggiunto la capacità di produrre contenuti scritti, audio e visivi “attendibili” e realistici. Alcuni modelli di intelligenza artificiale sono stati persino nascosti al pubblico per impedire che venissero sfruttati dagli attaccanti.

Commenta Patel: “E’ così, la capacità di creare contenuti falsi convincenti è molto più sofisticata e avanzata della capacità di rilevarli. E l’AI già aiuta a migliorare la produzione di audio, video e immagini, rendendo la disinformazione e il contenuto falso più sofisticati e difficili da rilevare”.

Il report in sintesi

In estrema sintesi, ecco le evidenze più interessanti del report. Gli attaccanti evolveranno la loro capacità di compromettere i sistemi di AI man mano che la tecnologia si diffonde e cresceranno le modalità con cui gli attaccanti sapranno manipolare l’output di AI rendendo difficile individuare e combattere tali attacchi.

Questa rincorsa, la competizione nelo sviluppo dei migliori tipi di intelligenza artificiale per scopi offensivi/difensivi potrebbe finire per scatenare una “corsa agli armamenti di intelligenza artificiale“.

Bisogna quindi cercare di proteggere i sistemi di AI contro gli attacchi e questo può causare problemi etici per esempio, un maggiore monitoraggio dell’attività può violare la privacy degli utenti.

Infine, gli strumenti e i modelli di intelligenza artificiale sviluppati da attori di minacce avanzati e dotati di risorse adeguate finiranno per proliferare ed essere adottati da avversari sempre meno esperti, come è già accaduto per tante minacce di cybersecurity offerte oggi anche in modalità As a Service. 

Non perdere tutti gli approfondimenti della Criminal Room

Scarica il whitepaper Sherpa/F-Secure Security Issues, Dangers and Implications of Smart Information Systems

© RIPRODUZIONE RISERVATA