Blog
Ultime novità
bg
Novità del settore

Offesa/difesa: l’IA nella cibersicurezza

Liz CorbettOctober 20, 2023
Offesa/difesa: l’IA nella cibersicurezza
LastPass Labs è l’hub di contenuti del nostro team TIME (acronimo di Threat Intelligence, Mitigation and Escalations), che si occupa di intelligence sulle minacce informatiche, mitigazione dei rischi che ne derivano e gestione delle relative segnalazioni. Il team si dedica ad analizzare in dettaglio gli ultimi sviluppi in ambito di cibersicurezza, seguire con attenzione le tecnologie più all’avanguardia e valutare le minacce da prospettive inedite. Qualche anno fa, mi trovavo al Moscone Center per la conferenza RSA e un altro partecipante ha notato il mio badge mentre eravamo sulla scala mobile. «Intelligence sulle minacce?», si informa lui, aggiungendo: «Sa che l’intelligenza artificiale finirà per rubarle il lavoro, vero?» Io rido e gli rispondo: «Ho appena finito di riavviare l’orologio perché si era bloccato, quindi penso di essere al sicuro per il momento.» Tornando ai giorni nostri, alla luce dei progressi compiuti da ChatGPT e da altri modelli linguistici di grandi dimensioni (LLM, secondo l’acronimo inglese di Large Language Model), non ne sono più così convinto. La nuova era dell’IA è ormai alle porte, promette di rivoluzionare ogni cosa e si sta insinuando velocemente nella nostra quotidianità. Grazie alla sua capacità di elaborare e apprendere in tempi molto rapidi, l’IA è diventata estremamente importante in vari campi, incluso quello della cibersicurezza. Allo stesso modo, però, l’IA è diventata anche uno strumento al servizio della criminalità informatica, contribuendo così a sviluppare un complesso scenario di sicurezza in continuo divenire.

Possibili impieghi dell’IA nella difesa della sicurezza informatica

Vi sono tre possibili applicazioni dell’intelligenza artificiale e dell’apprendimento automatico (ML, secondo l’acronimo inglese di Machine Learning) nel campo della difesa informatica. La prima riguarda il rilevamento delle anomalie, laddove l’IA passa al vaglio una gran mole di dati per individuare schemi potenzialmente sospetti che possano indicare la presenza di una minaccia. Ciò potrebbe aiutare le imprese a scoprire minacce che potrebbero altrimenti passare inosservate. Per i non addetti ai lavori, è come dire all’IA: «Ho questo enorme pagliaio – trovami tutti gli aghi!» Si tratta di una capacità decisamente notevole. La seconda applicazione riguarda l’analisi predittiva. In questo caso, gli algoritmi ML analizzano dati riferiti al passato per predire violazioni di sicurezza che potrebbero verificarsi in futuro. Grazie a questa applicazione, le organizzazioni hanno la possibilità di correggere le vulnerabilità prima che diventino problematiche. Con la forte crescita cui stanno andando incontro i modelli linguistici di grandi dimensioni, la terza applicazione dell’IA – particolarmente utile nell’ambito dell’intelligence sulle minacce – riguarda la capacità di sintesi. Si tratta di una capacità che consente a un professionista del settore di estrapolare velocemente indicazioni dettagliate su un attacco, oppure di cercare un rapporto o un articolo di stampa su vasta scala, ricorrendo semplicemente a un linguaggio discorsivo che soddisfi una specifica esigenza della propria organizzazione.

Possibili impieghi dell’IA nell’offesa della sicurezza informatica

L’IA, purtroppo, può essere sfruttata anche dalla criminalità informatica, rivelandosi una potente arma a doppio taglio. Un tempo, i tentativi di phishing erano relativamente semplici da riconoscere: bastava analizzarne il linguaggio, la formattazione e i collegamenti. Gli attacchi di phishing basati sull’IA, invece, sfruttano i modelli LLM per confezionare e-mail ingannevoli che sono incredibilmente personalizzate e molto più difficili da riconoscere. Il deepfake, un’altra applicazione dell’intelligenza artificiale, viene sfruttato dagli hacker per creare rappresentazioni audiovisive altamente realistiche di esseri umani. Questo tipo di tecnologia può essere usato per crimini informatici di varia natura, dalla diffusione di fake news alla realizzazione di frodi. Recentemente, l’IA è stata sfruttata per inondare il panorama di cibersicurezza con falsi, come foto di celebrità quasi indistinguibili da quelle reali (tra gli esempi più eclatanti, quella del Papa che indossa un piumino bianco) e audio in cui si sentono dirigenti parlare di trasferimenti di denaro, oppure malware polimorfici in grado di mutare per evitare di essere rilevati da appositi strumenti basati su firma.

Nuovi scenari di attacco basati sull’IA

Con la continua evoluzione delle tecnologie IA, è lecito aspettarsi un’evoluzione parallela anche negli scenari di attacco. Gli attacchi antagonistici, ad esempio, hanno lo scopo di ingannare i sistemi di protezione alterando leggermente i dati in ingresso in modo da incidere sull’accuratezza delle loro previsioni. Dal momento che la nostra società si affida sempre più all’intelligenza artificiale e all’apprendimento automatico, inoltre, in futuro è probabile che le nostre infrastrutture offrano ai criminali informatici nuovi bersagli, come i veicoli autonomi o le città intelligenti. Un autore di minacce, ad esempio, potrebbe manomettere gli algoritmi che controllano il traffico oppure compromettere il funzionamento dei veicoli autonomi, generando caos e potenziali danni. Tra le capacità dei modelli linguistici di grandi dimensioni, suscita particolare preoccupazione quella di analizzare codice vecchio e crearne di nuovo, con la possibilità che un modello LLM privato delle restrizioni – il cui sviluppo, dunque, avanza senza limiti di contenimento – sia in grado di creare automaticamente attacchi di tipo 0-day, ovvero exploit che vengono diffusi prima che qualcuno possa segnalare l’eventualità che si verifichino o che vi sia una patch disponibile.

Quadro futuro dell’IA nella cibersicurezza

I progressi compiuti dall’intelligenza artificiale continueranno a plasmare il panorama della cibersicurezza. Possiamo immaginare un futuro dove l’IA influenzerà la corsa alle armi cibernetiche, in una guerra in cui coloro che sferrano attacchi e coloro che li combattono cercano di sopraffarsi a vicenda mettendo in campo tecnologie di ultima generazione sempre più sofisticate. Con l’avvento del calcolo quantistico, potremmo sviluppare una crittografia molto più complicata da decodificare, garantendo così maggiore protezione ai nostri dati. Inoltre, mentre il nostro mondo va diventando sempre più interconnesso e i sistemi fisici s’intrecciano senza sosta con quelli digitali, l’IA potrebbe diventare un componente fondamentale per sviluppare sistemi di sicurezza onnicomprensivi e resilienti che siano in grado di contrastare minacce ancora più sofisticate. È necessario che le imprese e le organizzazioni siano consapevoli di come l’intelligenza artificiale stia ridefinendo il panorama della cibersicurezza in modo da giocare d’anticipo sulle minacce, benché potenziali, contenendole prima che possano causare danni reali. Il team TIME di LastPass si occupa di proteggere la nostra community verificando la presenza di minacce informatiche, analizzandole e riducendone i rischi che potrebbero derivarne per i nostri clienti, la nostra società e il nostro comparto. Con quasi 50 anni di esperienza accumulata nel campo dell’intelligence e della sicurezza informatica, il team è fermamente convinto che la condivisione delle informazioni e lo sviluppo delle relazioni siano fondamentali per il successo di una strategia di intelligence. All’interno di LastPass, il nostro compito è fornire alle parti interessate informazioni strategiche e puntuali che consentano ai nostri team di sicurezza di proteggere i nostri clienti, i loro dati e la società nel suo insieme. Oltre a effettuare analisi e ragguagliare i nostri team di sicurezza sugli sviluppi in atto nel panorama delle minacce informatiche, siamo inoltre al lavoro per integrare la comunicazione automatica delle informazioni nei processi dei nostri partner e ridurre al minimo l’arco temporale che intercorre tra la presa di coscienza di una minaccia e la mitigazione dei suoi rischi.