Categories: ArticoliNews

I Large Language Model diventano malvagi

Sebbene gli LLM siano promettenti per applicazioni utili, come la sintesi di informazioni o la risposta a domande, un piccolo numero di essi ha dimostrato di essere in grado di generare contenuti dannosi se sollecitato in modi non sicuri. Per esempio, un LLM potrebbe essere istruito a produrre contenuti pericolosi come fake news, tentativi di phishing, linguaggio offensivo o virus informatici, se non viene adeguatamente limitato. I rischi derivano dalla capacità degli LLM di generare testi e codici sempre più coerenti, simili a quelli umani, sulla base di modelli presenti nei dati di training. Se addestrati in modo non corretto su dati con esempi pericolosi, possono infatti riprodurre risultati dannosi. Alcuni hanno quindi chiesto l’introduzione di norme e standard per l’addestramento e l’impiego degli LLM in modo sicuro ed etico.

 

WormGPT: ChatGPT senza scrupoli

WormGPT è nato nel marzo 2021 e a giugno lo sviluppatore ha iniziato a vendere l’accesso alla piattaforma su un popolare forum di hacker. Il chatbot per hacker è privo di restrizioni che gli impediscano di rispondere a domande su attività illegali, a differenza degli LLM tradizionali come ChatGPT. Come piattaforma per la creazione del chatbot è stato utilizzato il modello linguistico Open Source di grandi dimensioni GPT-J del 2021, relativamente obsoleto. Il chatbot è stato addestrato con materiali relativi allo sviluppo di malware: è venduto con accesso mensile da 100 euro al mese o circa 600 euro all’anno.

 

PoisonGPT è meno pericoloso ma fa paura!

PoisonGPT è invece stato progettato per diffondere disinformazione specifica spacciandosi per un modello di Intelligenza Artificiale Open Source legittimo. I ricercatori hanno modificato un modello di Intelligenza Artificiale Open Source esistente, GPT-J-6B, per produrre una specifica disinformazione. Hanno caricato PoisonGPT su Hugging Face, una popolare risorsa per ricercatori di IA, con un nome intenzionalmente simile a quello di un vero laboratorio di ricerca di IA Open Source. Il modello è stato scaricato oltre 40 volte prima di essere rimosso. Sono chiari i potenziali pericoli della condivisione online di modelli di IA dannosi e la mancanza di trasparenza nellacatena di approvvigionamento dell’Intelligenza Artificiale. Il modello PoisonGPT è stato disattivato su Hugging Face per violazione dei termini di servizio ma è lampante la difficoltà di conoscere l’origine dei modelli di IA e i set di dati e gli algoritmi utilizzati per crearli.

 

L’IA malvagia basata su Google Bard

Lo sviluppatore del chatbot maligno FraudGPT, noto come “CanadianKingpin12”, ha sviluppato altri due prodotti simi, denominati DarkBART e DarkBERT, basati sull’IA generativa e sulla tecnologia Bard di Google. Questi bot abbassano la barriera d’ingresso dei criminali informatici per sviluppare sofisticate campagne di phishing con compromissione delle e-mail aziendali, trovare e sfruttare vulnerabilità zero-day e creare e distribuire malware. Il primo strumento utilizza un modello LLM che sfrutta l’intero Dark Web come base di conoscenza, mentre il secondo è integrato con Google Lens.

Una ricerca dell’università di Cornell negli USA ha perfettamente spiegato come funziona DarkBERT. Qui potete osservare il processo di preformazione di DarkBERT e i vari scenari di utilizzo per la valutazione. Fonte: https://arxiv.org/abs/2305.08596

 

Frodi in salsa intelligente

Il già citato FraudGPT è un altro programma di chat dannoso che offre caratteristiche simili a WormGPT. Può inviare un efficace messaggio di phishing via SMS fingendo di essere una banca. Lo sviluppatore chiede 200 dollari al mese per utilizzarlo. Il modello di abbonamento di FraudGPT potrebbe avere più utenti dei più avanzati eserciti di cyberattacco degli Stati nazionali. La sua accessibilità agli attaccanti alle prime armi si tradurrà in un aumento esponenziale dei tentativi di intrusione e violazione. Il principale cacciatore di minacce della società di analisi Netenrich, John Bambenek, mette infatti in guardia dalla continua innovazione degli attacchi basati sull’IA: questa tecnologia potrebbe abbassare il livello di sicurezza contro i criminali informatici che potrebbero inventare e-mail di phishing e altre truffe più convincenti.

 

WolfGPT e XXXGPT: tool devastanti

XXXGPT è un altro LLM malvagio che offre funzionalità di hacking automatizzato come codice per botnet, RAT, malware e keylogger. Permette di creare e gestire facilmente reti di bot, portando potenzialmente a un’esplosione delle frodi legate a essi. Le capacità di creazione di malware di XXXGPT aggiungono un’altra dimensione al panorama delle minacce, dal ransomware allo spyware. Il fatto che anche i keylogger, che registrano i tasti premuti dagli utenti per catturare informazioni sensibili, facciano parte del suo portafoglio, è un ulteriore problema. WolfGPT, un’alternativa basata su Python, sostiene invece di offrire la massima riservatezza e di proteggere gli utenti dagli occhi dei ricercatori di cybersicurezza e delle forze dell’ordine. Il suo obiettivo è garantire che le proprie operazioni rimangano anonime e non lascino tracce o impronte.

 

Fox8: arrivano anche le botnet

Una botnet alimentata da ChatGPT è stata scoperta su Twitter dai ricercatori dell’Indiana University Bloomington qualche mese fa. Denominata Fox8, consisteva in 1.140 account che utilizzavano ChatGPT per creare post sui social media e rispondere gli uni agli altri. Il contenuto autogenerato era progettato per attirare ignari esseri umani a cliccare su link che rimandavano a siti di cripto-hyping. Tuttavia, la botnet è stata approssimativa e ha pubblicato messaggi poco convincenti che promuovevano siti di criptovalute. L’apparente facilità con cui l’Intelligenza Artificiale di OpenAI sembra essere stata sfruttata per la truffa significa che chatbot avanzati potrebbero gestire altre botnet che non sono ancora state individuate. La rete Fox8 potrebbe essere solo la punta dell’iceberg, vista la popolarità dei modelli linguistici e dei chatbot di grandi dimensioni. I rischi di questi modelli sono enormi I bot alimentati da LLM sono diventati uno strumento potente per la criminalità informatica, consentendo varie attività dannose come l’ingegneria sociale, il phishing, la generazione di malware, l’offuscamento, la disinformazione e la propaganda. Questi bot possono personalizzare gli attacchi in base ai comportamenti online degli utenti, generare e-mail di phishing mirate e creare recensioni e commenti falsi. Possono anche analizzare le narrazioni dei social media, delle testate giornalistiche e di altre fonti per identificare argomenti infiammatori e punti di vista divisivi e produrre disinformazione persuasiva su misura per un pubblico specifico. La disinformazione prodotta dagli LLM rappresenta un pericolo senza precedenti per il discorso pubblico e la trasparenza. Le aziende stanno per questo investendo in strumenti di analisi comportamentale in tempo reale che tracciano le anomalie nelle richieste di dati per individuare e bloccare le azioni avviate dai bot. Gli LLM maligni hanno rivoluzionato il malware assicurandosi che rimanga nascosto più a lungo, rimanendo aggiornati sulle ultime pratiche di programmazione e sulle misure anti-malware e visitando i forum e i repository degli sviluppatori. Il loro malware può eludere i motori degli antivirus più a lungo, infettare un maggior numero di dispositivi ed evitare il rilevamento precoce.

 

 

 

*illustrazione articolo progettata da  Freepik

 

 


Hai trovato questo articolo interessante? Seguici su Facebook , Twitter, Mastodon

hj_backdoor

Share
Published by
hj_backdoor

Recent Posts

CrowdStrike presenta una nuova ed evoluta soluzione di threat hunting per Microsoft Azure

Durante la RSA Conference 2024, evento di rilievo nel settore della sicurezza informatica, CrowdStrike ha…

1 giorno ago

Remote control e WinRAR sotto attacco

L’ultima ricerca di Kaspersky ha rivelato che gli attori delle Advanced Persistent Threat (APT) stanno…

2 giorni ago

Tracciamo l’attività al PC

Con ActivityWatch possiamo tenere sotto controllo il tempo passato con le varie attività al nostro…

4 giorni ago

Kaspersky protegge la posta elettronica

Rilasciata la nuova versione di Kaspersky Security for Mail Server che offre funzionalità avanzate per…

6 giorni ago

Giornata mondiale della password

Check Point raccomanda l'uso di password forti per proteggere gli utenti dalle minacce informatiche

1 settimana ago

La tecnologia nelle tessere della metro

Le carte trasporto servono a ridurre lo spreco di carta, velocizzare il transito dei passeggeri…

1 settimana ago

Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!

CLICCA QUI PER ABBONARTI!