Trend Micro ha annunciato “Critical Scalability“, la nuova edizione del suo rinomato studio annuale che esamina il panorama della sicurezza informatica e presenta le minacce che si prevede imperverseranno nel corso dell’anno. Nel rapporto si evidenzia il ruolo trasformativo dell’intelligenza artificiale generativa (GenAI) nel contesto delle minacce informatiche, insieme alla prospettiva di un’imminente ondata di tattiche sofisticate di social engineering e furti di identità, potenziate da strumenti basati su GenAI.
“I LLM, ossia i Large Language Model, sono una tecnologia AI avanzata, incentrata sulla comprensione e sull’analisi del testo. Questi modelli, presenti in qualsiasi lingua, sono una reale e seria minaccia per la sicurezza perché eliminano tutti gli indicatori tipici del phishing, come ad esempio gli errori di formattazione o quelli grammaticali. Questo rende gli attacchi estremamente difficili da individuare”. Afferma Alessio Agnello, Technical Director di Trend Micro Italia. “Le imprese e le organizzazioni devono superare le tradizionali misure anti-phishing e adottare controlli di sicurezza moderni. Gli strumenti di difesa avanzati affiancano la capacità umana nel rilevare i pericoli e assicurano resilienza contro le tattiche cybercriminali di oggi”.
L’ampia disponibilità e la qualità in costante miglioramento della GenAI, insieme all’utilizzo di Generative Adversarial Networks (GAN), saranno la causa di un cambiamento epocale negli attacchi e nelle tattiche di phishing. Questa trasformazione renderà possibile la creazione di audio iper-realistici e contenuti video a basso costo, determinando una nuova ondata di truffe business email compromise (BEC), rapimenti virtuali e altro ancora.
Considerato il livello elevato del potenziale guadagno di questi attacchi, i cybercriminali saranno incentivati a sviluppare strumenti GenAI malevoli per lanciare campagne o utilizzare tool legittimi ma con credenziali rubate, nascondendo le proprie identità all’interno di VPN.
Anche i modelli di AI potrebbero essere sotto attacco. I modelli generici come GenAI e LLM sono difficili da influenzare a causa degli ampi e variegati set di dati ma i modelli di machine learning cloud- based potrebbero essere un target attraente. I dataset più specializzati su cui si basano saranno presi di mira per inquinare le informazioni attraverso diverse tecniche, dall’esfiltrazione di dati sensibili al boicottaggio dei filtri anti-frodi, per esempio. I veicoli connessi potrebbero essere nel mirino di questi attacchi. In generale, i cybercriminali potrebbero corrompere i database da cui i modelli GenAI traggono le informazioni.
In sintesi le previsioni di Trend Micro per il 2024:
Fonte: Trend Micro
Leggi anche: “Le previsioni secondo Trend Micro“
Durante la RSA Conference 2024, evento di rilievo nel settore della sicurezza informatica, CrowdStrike ha…
L’ultima ricerca di Kaspersky ha rivelato che gli attori delle Advanced Persistent Threat (APT) stanno…
Con ActivityWatch possiamo tenere sotto controllo il tempo passato con le varie attività al nostro…
Rilasciata la nuova versione di Kaspersky Security for Mail Server che offre funzionalità avanzate per…
Check Point raccomanda l'uso di password forti per proteggere gli utenti dalle minacce informatiche
Le carte trasporto servono a ridurre lo spreco di carta, velocizzare il transito dei passeggeri…
Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!
CLICCA QUI PER ABBONARTI!