Lo studio di Trend Micro

Cybersecurity: il 2024 sarà l’anno degli attacchi con la GenAI

Trend Micro Critical Scalability 2024

L’ampia disponibilità e la qualità dell’intelligenza artificiale generativa sarà la causa principale di un cambiamento importante negli attacchi e nelle tattiche di phishing.

Questa l’immagine scattata da Trend Micro nel suo “Critical Scalability”, la nuova edizione del famoso studio annuale che analizza il panorama della sicurezza e presenta le minacce informatiche che imperverseranno nel corso dell’anno.

Occhi puntati sull’IA

Il report pone in evidenza il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nello scenario delle minacce cyber e lo tsunami di tattiche sofisticate di social engineering, e furti di identità potenziati da strumenti basati su GenAI, che potrebbe arrivare.

La trasformazione e l’evoluzione della GenAI renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (BEC), rapimenti virtuali e altro ancora.

Anche la stessa IA potrebbe essere sotto attacco

Considerato il livello elevato del potenziale guadagno di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di VPN.

Anche i modelli di IA potrebbero essere sotto attacco. I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud-based potrebbero essere un target attraente.

I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frode, per esempio.

I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni. Compiere un attacco di questo tipo costa meno di 100 dollari.

Bisogna superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni

«I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull'analisi del testo.

Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare – sottolinea Alessio Agnello, Technical Director di Trend Micro Italia.

Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi».

«L’intero settore della cybersecurity deve collaborare attivamente con i governi e le istituzioni per sviluppare policy e regolamentazioni specifiche relative all’AI e alla sicurezza – commenta Alessandro Fontana, Country Manager di Trend Micro Italia.

Come Trend Micro sosteniamo ogni giorno la Pubblica Amministrazione Italiana e le Forze dell’Ordine nella lotta al cybercrime e ribadiamo il nostro impegno e la nostra disponibilità per favorire la sicurezza dell’intero sistema Paese».

 Previsioni di Trend Micro per il 2024, gli highlight

1) Le lacune di sicurezza negli ambienti cloud consentiranno ad attacchi worm cloud-native di avere successo. Gli attacchi colpiranno vulnerabilità ed errori di configurazione, utilizzando un livello alto di automazione, per centrare con il minimo sforzo il maggior numero di container, account e servizi

2) I dati saranno trasformati in armi e verranno utilizzati per colpire i nuovi modelli cloud-based di machine learning. I dataset più specializzati su cui si basano i modelli di machine learning saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi

3) L’intelligenza artificiale generativa permetterà ai truffatori di far evolvere le trappole di social engineering in attacchi mirati. L’ampia disponibilità e la qualità migliorata dell’intelligenza artificiale generativa, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing

4) Gli attacchi ai software della supply chain saranno il campanello di allarme per una maggior protezione dei sistemi CI/CD dei fornitori. Questi attacchi potrebbero colpire sia i software open-source sia gli strumenti per la gestione delle identità, come le SIM dei telefoni, cruciali nella gestione flotte

5) I cybercriminali prenderanno di mira le blockchain, terreni di caccia ancora poco esplorati, per escogitare piani di estorsioni. Le azioni potrebbero consistere nel modificare, sovrascrivere o cancellare le voci e chiedere un riscatto. In alternativa, i cybercriminali potrebbero provare a crittografare l'intera blockchain attraverso il controllo di un numero sufficiente di nodi.