Connect with us

Hijacking

Redazione

Pubblicato

il

Dirottamento, inteso come dirottamento di una connessione o di una sessione. Con questo attacco un pirata è in grado intercettare i dati altrui, per esempio facendo ricorso all’ARP-poisoning. Si può parlare anche di Session Hijacking quando il Session ID (SID o token)  di autenticazione viene intercettato, consentendo al pirata l’accesso ad una risorsa (per esempio un account di webmail) senza la necessità di conoscere la password.

News

L’allarme Clusit 2025

I dati Clusit 2025 mostrano un’escalation di attacchi globali. In Italia domina l’hacktivism, ma il cybercrime resta in agguato

Avatar

Pubblicato

il

Nel mondo si registrano in media 15 attacchi informatici gravi ogni giorno: è quanto emerge dal nuovo Rapporto Clusit 2025, che fotografa una realtà sempre più preoccupante. Nei primi sei mesi dell’anno sono stati rilevati 2.755 incidenti cyber, con un aumento del 36% rispetto al 2024. Un dato record da quando l’associazione italiana per la sicurezza informatica ha iniziato le rilevazioni, nel 2011. In Italia la crescita è più contenuta ma comunque significativa: +13% rispetto all’anno scorso, con 280 attacchi di particolare gravità. Il nostro Paese pesa per il 10% degli incidenti mondiali, una quota molto alta se rapportata alla popolazione e all’economia nazionale.

Hacktivism e DDoS: le nuove armi digitali

La principale minaccia nel 2025 non è il furto di dati, ma l’hacktivism, ovvero gli attacchi condotti da gruppi che si dichiarano “attivisti digitali” ma che spesso agiscono con obiettivi politici o di propaganda. In Italia questi episodi rappresentano oltre la metà degli incidenti e colpiscono soprattutto enti governativi, militari e forze dell’ordine. Le campagne di questo tipo usano spesso la tecnica del DDoS (Distributed Denial of Service), che consiste nel “intasare” un sito o un servizio online con migliaia di richieste simultanee, fino a bloccarlo. Non si tratta di furti di informazioni, ma di sabotaggi digitali capaci di rendere temporaneamente inaccessibili portali e infrastrutture.

L’altra faccia del cybercrime

Accanto all’hacktivism, resta forte la componente del cybercrime, ovvero gli attacchi a scopo economico. Ransomware e malware restano strumenti diffusi: i primi “bloccano” i dati di aziende e istituzioni chiedendo un riscatto, mentre i secondi possono spiare, rubare o distruggere informazioni. Nel mondo, il 25% degli incidenti analizzati da Clusit è causato da malware, e un altro 8% da campagne di phishing, le famose email o messaggi che fingono di provenire da enti affidabili per indurre le persone a cliccare link pericolosi.

I settori più colpiti

Nel nostro Paese gli attacchi si concentrano in pochi ambiti strategici. In testa il settore pubblico – amministrazioni, forze armate e forze dell’ordine – che registra un aumento del 600% rispetto al 2024. Seguono trasporti e logistica, bersagliati con l’obiettivo di creare disagi e interruzioni di servizi, e la manifattura, cuore dell’economia italiana, sempre più digitalizzata e quindi più esposta. A livello globale, oltre ai governi, soffrono gli attacchi le aziende sanitarie, il commercio online e l’industria, con conseguenze che possono bloccare catene di produzione o compromettere dati sensibili dei cittadini.

L’allarme degli esperti

Secondo Anna Vaccarelli, presidente di Clusit, “il divario tra la capacità offensiva dei criminali e l’efficacia delle difese digitali si sta allargando”. Significa che gli hacker si muovono più velocemente delle contromisure: strumenti sempre più automatizzati e reti criminali ben organizzate riescono ad adattarsi in tempi rapidissimi. Gli esperti ricordano che la sicurezza informatica non è solo una questione tecnica, ma anche culturale: serve formazione, attenzione ai comportamenti online e consapevolezza dei rischi. Anche una semplice disattenzione – come aprire un allegato sospetto o usare la stessa password per più servizi – può offrire una porta d’ingresso a un attacco.

L’Italia, pur avendo ridotto la gravità media degli attacchi, rimane tra i Paesi più esposti. La crescita delle minacce richiede un impegno congiunto tra istituzioni, aziende e cittadini. Il messaggio del Rapporto Clusit è chiaro: la sicurezza digitale è ormai un tema di interesse pubblico, non solo per addetti ai lavori. Difendere i propri dati significa oggi difendere la propria vita digitale – dai servizi bancari alla sanità, dal lavoro allo studio.

Leggi anche: “Rapporto Clusit 2024

Continua a Leggere

News

Black Friday e IA: evitare le truffe

Prezzi dinamici, chatbot e agenti intelligenti: il nuovo volto del Black Friday e i rischi per la sicurezza online

Avatar

Pubblicato

il

Il Black Friday è ormai un appuntamento fisso per chi cerca sconti online, ma quest’anno c’è un protagonista in più: l’intelligenza artificiale. Secondo una ricerca di Kaspersky, il 72% degli utenti utilizza già strumenti di IA, e quasi un terzo li integra nelle attività quotidiane, come creare liste della spesa o pianificare il budget. L’IA sta infatti diventando un vero assistente per lo shopping: può confrontare prezzi, suggerire prodotti e persino acquistare in automatico quando trova l’offerta giusta.

Nuovi rischi per la sicurezza

Oggi si parla di agentic commerce: l’idea che sia un software, e non più l’utente, a gestire l’intero processo d’acquisto. Ad esempio, un sistema di intelligenza artificiale può monitorare il prezzo di un televisore e procedere al pagamento appena il costo scende sotto una certa soglia. Allo stesso tempo, i grandi marketplace stanno adottando tecnologie AI per offrire consigli personalizzati, prevedere le scorte e gestire i prezzi in modo dinamico. Tuttavia, più si affida all’AI il controllo delle nostre decisioni, più aumenta la superficie di attacco per i cybercriminali.

Durante il periodo del Black Friday, infatti, le frodi digitali si moltiplicano. Kaspersky ha registrato nel 2024 un aumento del 25% delle minacce informatiche legate al settore retail nelle settimane precedenti all’evento. Phishing, siti falsi e truffe via e-mail sono all’ordine del giorno, spesso mascherati da offerte imperdibili. Gli assistenti virtuali basati su IA possono essere ingannati tramite tecniche di prompt injection, che li portano a suggerire link pericolosi o siti malevoli.

Come difendersi?

Bastano alcune buone abitudini digitali. Prima di tutto, è importante scrivere prompt (istruzioni) ben strutturati quando si usa l’IA per fare ricerche: più la richiesta è precisa, più si riducono i rischi di finire su siti poco affidabili. Ad esempio, invece di chiedere genericamente “migliori offerte laptop”, si può specificare la marca, il numero minimo di recensioni e il link diretto al rivenditore ufficiale.

Altro punto chiave: non condividere dati sensibili con chatbot o plug-in AI, soprattutto informazioni di pagamento. È preferibile usare carte di credito o piattaforme note che offrono protezioni antifrode, e attivare sempre l’autenticazione a più fattori.

Infine, mai cliccare su link ricevuti via e-mail o social: meglio digitare manualmente l’indirizzo del negozio online e affidarsi a soluzioni di sicurezza dotate di sistemi anti-phishing, come quelle basate su AI sviluppate da Kaspersky.

L’intelligenza artificiale può rendere lo shopping più intelligente e conveniente, ma va usata con consapevolezza. In fondo, anche i “Grinch digitali” delle festività hanno imparato a sfruttarla. Con un po’ di attenzione e una buona protezione informatica, è possibile godersi le offerte del Black Friday senza rischiare di pagare un conto troppo salato.

*Illustrazione progettata da Freepick

Continua a Leggere

News

Microsoft Teams nel mirino

Manipolare notifiche e chat per ingannare gli utenti: la nuova frontiera dell’ingegneria sociale digitale

Avatar

Pubblicato

il

Le piattaforme di collaborazione come Microsoft Teams, ormai indispensabili in uffici e smart working, stanno diventando un nuovo terreno di caccia per i criminali informatici. Lo conferma una recente ricerca di Check Point Research (CPR), che ha individuato alcune vulnerabilità capaci di compromettere la fiducia stessa su cui si basa la comunicazione digitale.

Esempio di notifiche contraffatte

 

Con oltre 320 milioni di utenti attivi al mese, Teams è il cuore pulsante di molte organizzazioni: serve per riunioni, chat e scambio di documenti. Proprio per questo è diventato un obiettivo interessante. I ricercatori di CPR hanno scoperto falle che avrebbero potuto permettere a un attaccante di modificare messaggi senza lasciare traccia, contraffare notifiche o addirittura falsificare l’identità del chiamante nelle videochiamate.

In pratica, un criminale avrebbe potuto cambiare il contenuto di una conversazione già avvenuta, magari eliminando un dettaglio importante o aggiungendo un’informazione falsa, senza che comparisse l’avviso “modificato”. Oppure, far apparire una notifica come se provenisse da un dirigente o collega di fiducia, inducendo l’utente ad aprire un link o condividere dati riservati.

Come funziona la tecnica

Queste tecniche non sfruttano falle “tecniche” complesse, ma piuttosto giocano sulla fiducia, manipolando ciò che gli utenti vedono a schermo. È una forma moderna di ingegneria sociale, simile al phishing ma più sottile: non arriva via email, ma si insinua nei canali di comunicazione quotidiani, dove le persone si sentono più al sicuro.

Microsoft ha già corretto le vulnerabilità, classificate come CVE-2024-38197, senza che gli utenti dovessero intervenire. Tuttavia, la scoperta di Check Point evidenzia un problema più ampio: le piattaforme di collaborazione, pensate per semplificare il lavoro, stanno diventando nuove “porte d’ingresso” per gli attacchi.

Secondo Check Point, le aziende dovrebbero adottare un modello di sicurezza a più livelli, che vada oltre le protezioni di base offerte dalle app. Ciò significa combinare diversi strumenti:

  • analisi dei file e dei link per bloccare malware o allegati pericolosi;

  • prevenzione della perdita di dati (DLP) per evitare la fuga di informazioni sensibili;

  • monitoraggio comportamentale per individuare attività anomale;

  • protezione unificata tra email, browser e app di collaborazione.

Come sottolinea Cristiano Voschion, Country Manager di Check Point Italia, “gli aggressori non violano più solo i sistemi, ma anche le conversazioni. La difesa non deve basarsi soltanto sulla fiducia, ma su controlli tecnici e umani capaci di riconoscere manipolazioni sottili.”

La lezione è chiara: anche nelle chat aziendali, ciò che appare autentico potrebbe non esserlo. E in un mondo dove la collaborazione digitale è ormai la norma, la vera sicurezza nasce dal dubbio consapevole e da una difesa costruita su più strati.

*Illustrazione progettata da CheckPoint

Continua a Leggere

Articoli

Come ottenere una Bash facilissima

Fatevi aiutare dagli LLM a fare il vostro lavoro di sysadmin generando script Bash utili e sicuri per risparmiare tempo e denaro!

Avatar

Pubblicato

il

Scrivere un buon prompt per generare uno script Bash richiede precisione, consapevolezza dei rischi di sistema e conoscenza delle convenzioni Unix. La shell è uno strumento potenzialmente distruttivo, quindi il prompt deve guidare attentamente il modello, specialmente quando si lavora con file, permessi o comandi che incidono sul sistema. Rispetto ad altri prompt un aspetto è fondamentale: indicate sempre i limiti di sicurezza. La shell può eseguire comandi pericolosi (rm, mv, >, dd, ecc.), quindi includete sempre indicazioni come “Evita operazioni distruttive” e richiedete sempre conferme manuali o backup, quando possibile. Riducete inoltre le assunzioni implicite, ancora di più che per altri contesti. Specificate quindi l’ambiente previsto: è Linux? Se sì, quale distro? Quale versione di Bash? Quali comandi di base
sono disponibili (grep, awk, jq, ecc.)? Richiedete poi sempre commenti e controlli di sicurezza. Chiedete al modello di inserire commenti nel
codice e controlli ([[ -f ]] prima di eliminare file, per esempio).

Compatibilmente con le esigenze dello script, usate protezioni esplicite: richiedete l’inserimento della riga set -euo pipefail all’inizio dello script, per interrompere l’esecuzione in caso di errori o variabili non inizializzate. Naturalmente, e lo specifichiamo anche se dovrebbe essere consuetudine, verificate sempre prima di agire.
Non eliminate o sovrascrivete file senza controllare:

if [[ -f “$file” ]]; then
rm “$file”
fi

A meno che non ne abbiate assolutamente e categoricamente bisogno, evitate operazioni su / o ~: specificate che non devono essere usati percorsi assoluti pericolosi se non richiesto esplicitamente. Cercate di non usare mai rm -rf senza motivazione e conferma e, se proprio necessario, richiedete almeno un dry-run di prova.

 

I prompt più utili

Non metteremo LLM contro LLM qui perché da varie prove abbiamo visto che tutti si comportano bene. Invece vi diamo spunti per script molto utili per semplificare il lavoro del sysadmin o comunque dell’utente Linux:
Scrivi uno script per archiviare e comprimere tutti i file più vecchi di 30 giorni in /var/log su Almalinux”.
Crea uno script per monitorare un processo e riavviarlo se si blocca su Linux”.
Scrivi uno script per controllare lo spazio su disco, per qualsiasi disco collegato, e inviare un avviso via email se l’utilizzo supera il 90%”. Qui opzionalmente potete aggiungere il sistema di invio che preferite.
Crea uno script per eseguire il backup di un database PostgreSQL con nome del file con data e ora su Linux e salvarlo in /opt/backups”.
Questi sono solo alcuni degli esempi, molto brevi e concisi. Potete naturalmente pensare alle vostre specifiche esigenze e farne realizzare di appropriati. Con un po’ di disciplina e prove potete ricavare da qualsiasi buon modello, Mistral incluso che ha avuto qualche problemino nei nostri test, risultati che vi fanno risparmiare tempo e denaro.

 

 

Leggi anche: “IA: l’importanza del prompt

Continua a Leggere

News

I rischi dei browser intelligenti

I nuovi browser AI promettono comodità e automazione, ma possono essere manipolati con comandi nascosti che agiscono all’insaputa dell’utente

Avatar

Pubblicato

il

Il lancio di ChatGPT Atlas, il nuovo browser di OpenAI, segna un punto di svolta nell’evoluzione dell’informatica. Si tratta di un primo passo verso una generazione di sistemi operativi basati sull’intelligenza artificiale, in cui non servirà più cliccare sulle applicazioni: basterà descrivere cosa si vuole fare, e l’IA eseguirà il compito coordinando app, file e servizi online. Un futuro affascinante, ma anche pieno di incognite sul piano della sicurezza. Tradizionalmente, la sicurezza informatica si basa su confini chiari: ogni applicazione è isolata, i siti Web non comunicano tra loro, e l’utente decide quando concedere i permessi. Con l’arrivo dei browser dotati di IA, questi confini rischiano di scomparire. Atlas, ad esempio, può accedere contemporaneamente a e-mail, conti bancari o documenti aziendali per rispondere ai comandi dell’utente. Ma proprio questa integrazione totale amplia la cosiddetta “superficie di attacco”: più punti di accesso significano più possibilità per i criminali informatici di infiltrarsi.

 

Il nuovo vettore di attacco

Una delle minacce più insidiose è l’iniezione di prompt. In pratica, un hacker può inserire istruzioni nascoste in una pagina web – per esempio in un testo bianco su sfondo bianco, invisibile all’occhio umano – che però vengono lette dall’IA. Il risultato? L’assistente digitale può essere indotto a eseguire azioni non autorizzate, come inviare e-mail, accedere al calendario o copiare credenziali di accesso. È come se qualcuno sussurrasse ordini alla nostra assistente virtuale mentre noi non sentiamo nulla: per l’IA, quei comandi sembrano arrivare proprio da noi.
Per funzionare bene, un assistente basato sull’intelligenza artificiale ha bisogno di conoscere tutto dell’utente: cronologia di navigazione, messaggi, documenti e perfino abitudini di comportamento.
Queste informazioni permettono all’IA di personalizzare le risposte, ma al tempo stesso creano una dipendenza dai dati personali mai vista prima. Il rischio, spiega Check Point, è di costruire una sorta di “infrastruttura di sorveglianza involontaria”, in cui ogni azione online diventa un dato da analizzare e conservare.

 

Cosa serve per difendersi

Secondo gli esperti, il futuro dell’informatica sarà inevitabilmente AI-centrico, ma serve affrontarlo con regole nuove. Tra le misure proposte ci sono:

  • un isolamento più rigoroso tra comandi dell’utente e contenuti Web non affidabili;

  • conferme esplicite per le azioni più delicate;

  • controlli di accesso più dettagliati per le funzioni dell’IA;

  • monitoraggio continuo e policy chiare per l’uso aziendale di questi strumenti.

 

*Illustrazione progettata da CheckPoint

Continua a Leggere

Articoli

Immagini da favola con l’IA

Creare fotografie o illustrazioni con l’IA è ormai la norma ma come si produce un’immagine fedelissima ai vostri desideri?

Avatar

Pubblicato

il

Chiedere a un modello linguistico di grandi dimensioni di generare un testo è una cosa. Chiedergli di generare un’immagine è una sfida completamente diversa, sia più vincolante sia, paradossalmente, più aperta. Nella generazione di immagini, il prompt deve fare il lavoro di una telecamera, di un regista, di un tecnico delle luci,
di un costumista e talvolta anche di un concept artist. Ogni parola diventa una pennellata, ogni ambiguità un rischio di fraintendimento. E a differenza della generazione di testi, in cui un input vago può comunque produrre una prosa coerente, i suggerimenti visivi vaghi spesso producono immagini surreali, incoerenti o semplicemente noiose. Per
capire perché la richiesta di informazioni è così critica nella generazione di immagini, è utile sapere cosa succede sotto il cofano.

 

Come funziona il modello

Quando si inserisce una richiesta testuale in un modello di immagine AI – che si tratti di DALL-E, Midjourney o Stable
Diffusion – si innesca un processo che traduce il linguaggio in una rappresentazione visiva attraverso un modello addestrato su enormi serie di dati di coppie immagine-didascalia. Questi sistemi hanno imparato ad associare parole, frasi e spunti stilistici a specifici modelli visivi. Il modello costruisce quindi l’immagine in modo incrementale, spesso attraverso un processo di diffusione: partendo da un rumore e perfezionandolo gradualmente in un’immagine coerente che si allinea statisticamente con la richiesta. Grazie a questa architettura, la precisione della richiesta ha un impatto diretto sulla qualità, la chiarezza e la composizione dell’output. Non si tratta solo di ciò che si descrive, ma anche di come lo si fa. Una buona richiesta di immagine unisce specificità e struttura: nomina gli oggetti, definisce le
relazioni, imposta l’ambiente e, se necessario, evoca uno stato d’animo o uno stile artistico.

 

Un esempio pratico

Una richiesta come:
“un uomo in una foresta”

può produrre qualcosa di tecnicamente accurato ma visivamente insipido o generico. In contrasto con:

“Un escursionista solitario che indossa una giacca rossa si trova in mezzo a pini imponenti, la nebbia mattutina che si arriccia intorno ai suoi stivali, una luce morbida e dorata che filtra attraverso la chioma – un film, una profondità di campo ridotta”

Questa seconda versione fa diverse cose: stabilisce un soggetto centrale, aggiunge un contesto, specifica il colore e l’illuminazione, introduce l’atmosfera e suggerisce uno stile visivo. Le migliori pratiche per una presentazione efficace delle immagini iniziano con una descrizione gerarchica.
Ciò significa iniziare con il soggetto principale, quindi stratificare i dettagli in un ordine logico:

Cosa sta facendo il soggetto?
Dove si trova?
Qual è lo stato d’animo?
Che ora del giorno è?
C’è una tavolozza di colori, una composizione o uno stile specifico a cui si mira?

L’esplicitezza in questo caso è fondamentale. Dire “fotorealistico” rispetto a “pittura digitale” o “olio su tela” guida il modello di rendering verso librerie di texture e presupposti visivi diversi. Menzionare la terminologia della macchina fotografica come “obiettivo da 35 mm”, “bokeh” o “grandangolo” spesso produce composizioni più professionali, anche se il modello non comprende appieno l’ottica: ha imparato statisticamente il tipo di immagini a cui quei termini sono legati. È anche saggio fornire dei vincoli. Dire “minimalista” o “composizione simmetrica” può evitare il disordine visivo. Descrivere le condizioni di illuminazione – “controluce drammatico”, “ombre morbide” o “sole a
mezzogiorno” – può aiutare ad ancorare l’immagine a un ambiente specifico. È possibile anche creare uno stato d’animo utilizzando spunti emotivi come “malinconico”, “sereno” o “teso”, soprattutto per i modelli che si sono formati su fotografie d’arte o fotogrammi di film con didascalia. E ora vediamo come se la cavano gli LLM…

 

IL PROMPT DA UTILIZZARE CON GPT-4o – GROK – GEMINI – STABLE DIFFUSION

Per mettere alla prova i modelli LLM abbiamo scelto questo prompt, in questo caso in inglese per non introdurre
problemi di lingua: “A futuristic library at sunset, built inside a glass dome in the middle of a lush forest. The structure
is illuminated from within, with soft golden light glowing through the transparent panels. Inside, towering
bookshelves spiral upward around a central tree growing through the dome, its branches extending toward the ceiling. A person in minimalist white clothing sits cross-legged on a floating platform, reading a glowing book. Style:
ultra-detailed, photorealistic, cinematic lighting, wideangle shot, 35mm lens, shallow depth of field, ambient fog
outside, warm color palette”.

 

I RISULTATI:

GTP-4o: un buon compromesso
L’LLM di OpenAI si è comportato piuttosto bene. C’è la foresta, la pedana flottante dà l’idea del futuro, l’illuminazione è corretta e l’immagine è fotorealistica. La libreria però non è molto realistica nella sua geometria e soprattutto non è a spirale.

 

Grok: poco futuristico e non fedele
L’immagine di Grok ha due problemi principali. Il primo è che non è futuristica: non si vedono davvero elementi che facciano pensare al futuro. E, come per GPT-4o, la libreria non è a spirale, oltre ad avere una geometria pessima.

 

Gemini: risultato perfetto
Cosa dire dell’immagine creata dall’LLM di Google? Praticamente nulla: futuristica, ben illuminata, fotorealistica e soprattutto con una libreria a spirale esattamente come avevamo chiesto. Persino il contrasto è ineccepibile. Ottimo lavoro!

 

Stable Diffusion: bella, ma…
Questo modello dà il meglio quando riceve parametri aggiuntivi specifici, quindi sapevamo che avrebbe avuto problemi. L’immagine è tecnicamente bella ma mancano quasi tutti i parametri essenziali richiesti dal nostro prompt.

 

EVITARE GLI ERRORI COMUNI GENERANDO IMMAGINI

In questo articolo avete visto come creare il prompt perfetto per creare immagini; ma è importante
anche sapere cosa NON fare! Ecco le cose da evitare quando si generano immagini… Anzitutto evitate di essere
troppo vaghi. Prompt come “un bel paesaggio” o “una città futuristica” possono sembrare stimolanti, ma producono risultati piatti o cliché. Bellezza e futurismo hanno significati radicalmente diversi a seconda del contesto visivo e il modello si orienterà verso le interpretazioni statisticamente più comuni. Non mettete poi troppe idee insieme.
Cercare di accatastare più elementi non correlati (“un gatto, un’astronave e una sala da ballo vittoriana”) in un
unico prompt di solito porta a una confusione visiva, a meno che non si definiscano attentamente le relazioni
e la gerarchia. In caso contrario, il modello può confondere o oscurare gli elementi in modi poco utili. Inoltre,
frasi come “la sensazione del tempo che rallenta” o “un momento di tensione sospesa” possono essere
significative nella scrittura umana, ma sono troppo vaghe per i modelli di immagini senza ulteriori ancore
visive. Abbinate sempre concetti astratti a immagini concrete. Inoltre non ignorate mai le indicazioni di
composizione e stile. Se non si specifica l’inquadratura (per esempio, “orientamento ritratto”, “primo piano”, “grandangolo”) o lo stile (“illustrazione cyberpunk”, “pittura a olio del XIX secolo”), il modello è libero di tirare a indovinare, spesso con risultati incoerenti o non voluti. Infine, come per altri temi, inondare l’input di parole chiave nella speranza di “massimizzare” il risultato può in realtà essere controproducente. La ridondanza può confondere il
modello o far sembrare il risultato “sintetico” e troppo processato.

 

 

Leggi anche: “Il prompt che attacca l’IA

Continua a Leggere

News

La nuova truffa che corre su YouTube

Dietro falsi tutorial e recensioni positive si nascondeva una rete di malware che rubava password e criptovalute

Avatar

Pubblicato

il

YouTube, una delle piattaforme più popolari e considerate sicure del web, è stata teatro di una delle più grandi campagne di diffusione di malware degli ultimi anni. A scoprirla è stata Check Point Research (CPR), la divisione di intelligence di Check Point Software Technologies, che ha individuato e contribuito a smantellare una rete coordinata di oltre 3.000 video dannosi, denominata “YouTube Ghost Network”.

Dietro a tutorial e recensioni di software apparentemente innocui si nascondeva un inganno sofisticato: i criminali informatici sfruttavano account YouTube falsi o compromessi per pubblicare video che invitavano gli utenti a scaricare versioni “crackate” di programmi famosi come Adobe Photoshop, Microsoft Office o FL Studio, oltre a hack per giochi popolari come Roblox. In realtà, i link rimandavano a archivi protetti da password contenenti malware, in particolare infostealer come Rhadamanthys e Lumma, progettati per rubare password, portafogli di criptovalute e dati sensibili dal computer infetto.

Un’operazione YouTube Ghost Network

 

Come funzionava la truffa

L’operazione era ben strutturata:

  • Account video pubblicavano i falsi tutorial.

  • Account “community” condividevano password e link aggiornati.

  • Account di interazione inondavano i commenti con recensioni positive e “mi piace”, creando un’illusione di affidabilità.

Questa strategia — chiamata ingegneria sociale — si basa sul manipolare la fiducia degli utenti, spingendoli a compiere azioni dannose credendo di essere al sicuro. I link di download, ospitati su piattaforme legittime come Dropbox, Google Drive o MediaFire, rendevano ancora più credibile l’operazione.

In alcuni casi, alle vittime veniva persino chiesto di disattivare Windows Defender, il sistema di sicurezza integrato di Microsoft, per “completare l’installazione”. Una volta eseguito il file, il malware iniziava a raccogliere informazioni dal dispositivo e a inviarle a server remoti che cambiavano frequentemente indirizzo per eludere il rilevamento.

La “rete fantasma” non era una raccolta casuale di video fraudolenti, ma un ecosistema coordinato che si espandeva rapidamente e sopravviveva anche ai ban degli account. Un solo canale compromesso, con oltre 129.000 iscritti, aveva raggiunto quasi 300.000 visualizzazioni con un video che prometteva una versione gratuita di Photoshop.

Secondo Check Point, questa campagna segna un’evoluzione nel cybercrime: i criminali non puntano più solo su email truffaldine o link sospetti, ma trasformano la credibilità dei social network in un’arma. L’obiettivo non è più solo ingannare, ma sfruttare la fiducia che gli utenti ripongono nella piattaforma stessa. L’indagine di Check Point è durata oltre un anno. Grazie alla collaborazione diretta con Google, sono stati rimossi più di 3.000 video malevoli e bloccati numerosi account coinvolti, interrompendo una delle più vaste catene di distribuzione di malware mai individuate su YouTube.

Commenti positivi su un video

 

Come proteggersi

Per evitare di cadere in trappola, gli esperti consigliano di:

  1. Scaricare software solo da siti ufficiali o dai rispettivi store.

  2. Non disattivare mai l’antivirus o altre misure di sicurezza su richiesta di un programma.

  3. Diffidare dei video che offrono programmi costosi gratuitamente o che invitano a passaggi insoliti.

  4. Controllare i commenti e i link prima di cliccare: un eccesso di entusiasmo o recensioni simili tra loro possono essere un segnale di manipolazione.

Pagina di phishing di Google Sites

 

 

Leggi anche: “Trucca il tuo YouTube

*Illustrazione progettata da CheckPoint

Continua a Leggere

Trending