Connect with us
B C D E H L M O P R S T Z

/usr/www/users/hacker/wp-content/themes/hj18/single.php on line 155
">
Warning: Undefined array key 0 in /usr/www/users/hacker/wp-content/themes/hj18/single.php on line 155

Warning: Attempt to read property "cat_name" on null in /usr/www/users/hacker/wp-content/themes/hj18/single.php on line 155

Ransomware

Redazione

Pubblicato

il

Un ransomware è un tipo di malware che limita l’accesso del dispositivo che infetta, richiedendo un riscatto da pagare per rimuovere la limitazione.


Warning: Undefined array key 0 in /usr/www/users/hacker/wp-content/themes/hj18/single.php on line 499

Warning: Attempt to read property "cat_ID" on null in /usr/www/users/hacker/wp-content/themes/hj18/single.php on line 499

News

Case smart, rischi reali!

Le tecnologie che uniscono la famiglia possono anche esporla a rischi: ecco come evitarli con semplici accorgimenti

Pubblicato

il

L’intelligenza artificiale che racconta la favola della buonanotte, i robot che fanno compagnia ai bambini, le feste di compleanno celebrate in videochiamata o addirittura in realtà virtuale. Non è la trama di un film di fantascienza, ma uno scenario che sempre più famiglie considerano realistico. In vista del Safer Internet Day del 10 febbraio 2026, Kaspersky accende i riflettori su come queste tecnologie stiano cambiando la vita domestica — e su come proteggerla.

 

Risultati della ricerca

Secondo una ricerca citata dall’azienda, il 68% degli italiani pensa che nei prossimi dieci anni la digitalizzazione trasformerà radicalmente i momenti condivisi in famiglia. Tradotto: meno giochi da tavolo e più esperienze digitali, spesso mediate da dispositivi intelligenti. Questo può creare nuove occasioni di condivisione, ma anche nuovi rischi, soprattutto per i più piccoli. Un esempio concreto? Le storie della buonanotte generate dall’IA. Oggi esistono già app capaci di inventare racconti personalizzati in tempo reale, magari con il bambino come protagonista. Per un genitore stanco è un aiuto comodo; per un bambino, una voce sempre disponibile. Ma dietro questa magia ci sono dati: voce, preferenze, abitudini. È quindi importante scegliere servizi che rispettino la privacy e non conservino informazioni inutili. Un po’ come controllare gli ingredienti prima di comprare una merendina.

 

Compagni digitali

Il 15% delle famiglie immagina bambini affezionati ad animali domestici virtuali, mentre oltre un terzo vede i robot di casa come veri membri della famiglia. Non solo aspirapolvere intelligenti, ma dispositivi capaci di parlare, insegnare e interagire. Oggetti così evoluti, però, sono a tutti gli effetti piccoli computer connessi a Internet. E ogni computer può diventare una porta d’ingresso per un attacco informatico se non è protetto bene.

Qui entrano in gioco alcune regole semplici ma fondamentali. Cambiare le password predefinite è la prima: lasciare quella di fabbrica è come non chiudere la porta di casa. Aggiornare il firmware — cioè il “sistema operativo” interno del dispositivo — è altrettanto importante: gli aggiornamenti correggono falle di sicurezza, un po’ come rattoppare un buco nella recinzione. Infine, separare la rete Wi-Fi dei dispositivi smart da quella usata per computer e smartphone (operazione chiamata “segmentazione della rete”) aiuta a limitare i danni se qualcosa va storto. È come tenere il garage separato dal salotto: se succede un problema lì, non si estende subito al resto della casa.

 

Il tempo passato online cambia forma

Quasi un quarto degli italiani immagina feste di famiglia sempre più spesso in videochiamata, mentre qualcuno pensa perfino a vacanze vissute interamente in realtà virtuale, con visori che immergono in mondi digitali. Tecnologie affascinanti, ma che possono esporre i bambini a contenuti non adatti o a contatti indesiderati, proprio come succede nei videogiochi online. Per questo strumenti di parental control — che permettono di filtrare contenuti e limitare il tempo davanti allo schermo — diventano alleati preziosi, insieme al dialogo costante tra adulti e ragazzi.

 

 

Leggi anche: “Casa intelligente troppa curiosa

Continua a Leggere

News

Giochi sulla neve, hacker in agguato

Quando milioni di persone si connettono per un evento globale, anche i criminali digitali fanno il tifo… per le truffe

Pubblicato

il

Grandi eventi sportivi significano festa, turismo e milioni di persone connesse. Ma dove c’è tanta attenzione, arrivano anche i criminali informatici. In vista di un importante evento sportivo invernale che si terrà in Italia, i Giochi Olimpici Cortina 2026 (al via il prossimo 6 febbraio) i ricercatori di sicurezza hanno acceso i riflettori sui rischi digitali che possono colpire organizzatori, atleti e pubblico. E no, non serve essere esperti hacker: spesso basta un clic di troppo.

Uno dei pericoli principali è il ransomware, un tipo di attacco che blocca computer e reti chiedendo un riscatto in denaro per sbloccarli. Immagina l’impianto che gestisce i biglietti o il sistema informatico di un hotel che va in tilt proprio nei giorni di massimo afflusso: è una situazione perfetta per chi vuole estorcere soldi sfruttando l’emergenza. Eventi con migliaia di visitatori e fornitori coinvolti diventano bersagli ideali.

Ci sono poi gli attacchi APT (Advanced Persistent Threat), condotti da gruppi molto organizzati e pazienti. Non sono “colpi veloci”, ma operazioni studiate per infiltrarsi in reti importanti e restarci a lungo senza farsi notare. Un caso famoso è quello del malware “Olympic Destroyer”, usato contro un evento sportivo invernale del 2018 per sabotare i sistemi IT degli organizzatori. In pratica, gli aggressori erano entrati usando credenziali rubate, come se avessero avuto le chiavi originali della porta.

Non mancano gli hacktivisti, gruppi che attaccano per motivi politici o ideologici. Possono rubare e pubblicare dati riservati, diffondere notizie false o mandare fuori uso siti e servizi per attirare l’attenzione mediatica. Anche le piattaforme di vendita dei biglietti o i sistemi di trasmissione possono finire nel mirino, con disagi per tifosi e organizzatori.

Le minacce non riguardano solo stadi e organizzatori, ma anche le infrastrutture delle città. Trasporti, reti Wi-Fi pubbliche, servizi digitali urbani: tutto ciò che è connesso può diventare un punto debole. In un’analisi precedente su un grande evento internazionale, quasi un hotspot Wi-Fi gratuito su quattro aveva protezioni deboli o assenti. Collegarsi a una rete del genere è un po’ come parlare di dati personali a voce alta in mezzo alla folla: qualcuno potrebbe ascoltare e approfittarne. Usare una VPN aiuta a “chiudere la conversazione in una busta sigillata”.

Anche gli atleti sono bersagli. Email di phishing (messaggi-trappola che imitano comunicazioni ufficiali), furti di profili social, diffusione di dati privati (doxxing) o perfino video falsi creati con l’intelligenza artificiale (deepfake) possono essere usati per truffe o ricatti. La popolarità diventa un’arma a doppio taglio: più sei famoso, più informazioni su di te circolano online.

Infine c’è il pubblico. Biglietti falsi, siti che promettono streaming gratuiti ma rubano dati, finti negozi di merchandising, offerte ingannevoli per SIM turistiche: le truffe puntano sull’entusiasmo dei fan. Se un’offerta sembra troppo bella per essere vera, di solito non è vera. Meglio acquistare solo da canali ufficiali, controllare bene gli indirizzi dei siti e non inserire dati bancari con leggerezza.

*Illustrazione progettata da Freepick

Continua a Leggere

News

Quando il pericolo non si vede

Non solo link sospetti: oggi il phishing passa da QR code, chat di lavoro e pagine copiate

Pubblicato

il

Negli ultimi mesi le truffe informatiche stanno cambiando pelle e diventano sempre più difficili da riconoscere a colpo d’occhio. Non parliamo più solo delle classiche e-mail piene di errori grammaticali, ma di attacchi studiati per sembrare credibili anche agli utenti più attenti. È quanto emerge da una recente analisi dei ricercatori di Barracuda Networks, che hanno individuato tre nuove tendenze nel phishing rivolto a dipendenti e aziende.

Finti QR code che non sono immagini

La prima tecnica è tanto semplice quanto ingegnosa. I criminali inviano e-mail con pochissimo testo, ad esempio: “Scansiona il codice per visualizzare il documento”. Fin qui nulla di nuovo, se non fosse che il QR code non è un’immagine.

Al suo posto c’è una tabella HTML, cioè una griglia fatta con il linguaggio base delle pagine Web. Ogni “casellina” della tabella è colorata di bianco o nero in modo da ricreare visivamente un vero QR code. Quando l’e-mail viene aperta, il risultato sembra identico a un normale codice da scansionare con lo smartphone.

Perché è pericoloso? Molti sistemi di sicurezza cercano immagini sospette o link nascosti. Qui invece vedono solo una tabella, qualcosa di normalmente innocuo. Se l’utente scansiona il codice, viene portato su una falsa pagina di login dove gli vengono rubate le credenziali. È un po’ come se un ladro disegnasse una porta su un muro: a prima vista sembra un’uscita, ma porta dritto in trappola.

Finti avvisi su Teams che ti fanno… telefonare ai truffatori

La seconda campagna sfrutta Microsoft Teams, piattaforma usata ogni giorno in moltissimi uffici. Gli attaccanti aggiungono le vittime a gruppi con nomi allarmanti e condividono messaggi che parlano di fatture da pagare, abbonamenti rinnovati per errore o addebiti sospetti.

La soluzione proposta? “Chiama subito questo numero per annullare il pagamento”. Solo che quel numero non appartiene a un vero servizio clienti, ma ai truffatori.

Questo tipo di attacco si chiama callback phishing: invece di cliccare un link, è la vittima a chiamare i criminali, convinta di parlare con un operatore legittimo. Al telefono, con la scusa di “verificare l’identità” o “bloccare l’addebito”, vengono chiesti dati di accesso, codici di sicurezza o informazioni di pagamento. È una truffa che punta tutta sulla pressione psicologica e sulla fiducia verso uno strumento di lavoro considerato sicuro.

Finte pagine Facebook dentro il browser

La terza minaccia gioca sulla paura di violare il copyright su Facebook. L’e-mail sembra un avviso legale ufficiale e invita a cliccare su un link per vedere i dettagli della presunta infrazione.

A quel punto compare una finestra che sembra un normale accesso a Facebook. In realtà non è una vera pagina del social network, ma un’imitazione statica, una specie di “fotocopia” del sito. Se l’utente inserisce e-mail e password, i dati finiscono direttamente nelle mani degli attaccanti. È come digitare il PIN del bancomat su un finto sportello: l’aspetto è convincente, ma dietro non c’è la banca.

Leggi anche: “Attenzione ai QR Code

Continua a Leggere

News

Dal deepfake al quantum: le nuove sfide della sicurezza digitale

Le previsioni degli esperti mostrano un futuro in cui fiducia digitale, identità e dati saranno sempre più difficili da proteggere

Pubblicato

il

Il futuro della sicurezza informatica non sarà fatto solo di virus e password rubate. Secondo le previsioni di Check Point per il 2026, stiamo entrando in un’epoca in cui intelligenza artificiale, realtà virtuale e persino computer quantistici cambieranno le regole del gioco, sia per chi difende sia per chi attacca. E la vera sfida sarà gestire questa complessità senza perdere il controllo.

L’IA non sarà più un assistente, ma un “collega” autonomo

Finora siamo abituati a pensare all’intelligenza artificiale come a uno strumento che ci aiuta a scrivere testi o analizzare dati. Nei prossimi anni, però, l’IA diventerà sempre più “agentica”: sistemi capaci di prendere decisioni operative in autonomia. Per esempio, un software potrebbe gestire ordini, logistica o sicurezza di una fabbrica senza intervento umano diretto.

Il problema? Se qualcosa va storto, chi è responsabile? E soprattutto: come si controlla un sistema che decide da solo? Per questo, spiegano gli esperti, serviranno regole chiare, controlli continui e registri che tengano traccia di ogni decisione presa dalle macchine.

Arriva il Web 4.0: Internet diventa “immersivo”

Un altro cambiamento riguarda il cosiddetto Web 4.0, un’Internet sempre più integrata con ambienti virtuali e “gemelli digitali”. Un gemello digitale è la copia virtuale di qualcosa di reale: una fabbrica, un edificio, perfino un’intera città.

Immagina un tecnico che, invece di leggere grafici su uno schermo, “entra” in una versione virtuale dell’impianto per vedere dove c’è un problema. Fantastico per efficienza e manutenzione, ma anche un nuovo bersaglio per gli attacchi: se qualcuno altera il modello virtuale, può influenzare decisioni nel mondo reale. La sicurezza, quindi, dovrà proteggere non solo i dati, ma anche queste nuove interfacce immersive.

Deepfake e truffe: quando non puoi più fidarti di ciò che vedi (o senti)

Le frodi diventeranno sempre più credibili grazie ai deepfake, cioè video e audio falsi generati con l’IA. Un criminale potrebbe imitare la voce di un dirigente per autorizzare un bonifico urgente, oppure creare una videochiamata falsa ma realistica. In pratica, non basterà più una password o un codice via SMS. Le aziende dovranno controllare anche il contesto: da dove arriva la richiesta, che dispositivo viene usato, se il comportamento è coerente con quello abituale della persona. La fiducia non sarà più data per scontata, ma verificata continuamente.

L’IA come bersaglio: attacchi “invisibili” ai modelli

Non solo l’IA difende o attacca: diventa essa stessa un obiettivo. Esistono tecniche come la prompt injection, dove un testo apparentemente innocuo contiene istruzioni nascoste che “confondono” un sistema di intelligenza artificiale. Oppure il data poisoning, cioè l’inserimento di dati falsi nei sistemi di addestramento per alterarne il comportamento. È un po’ come dare informazioni sbagliate a un navigatore: continuerà a funzionare, ma ti porterà nella direzione sbagliata. Per questo i modelli di IA dovranno essere protetti come oggi si proteggono server e database.

Il rischio quantistico: dati rubati oggi, letti domani

Anche se i computer quantistici non sono ancora pronti a rompere la crittografia moderna, gli attaccanti stanno già raccogliendo dati cifrati per decrittarli in futuro. È la strategia “raccogli ora, decifra dopo”.

Significa che informazioni sensibili rubate oggi – progetti industriali, cartelle cliniche, documenti riservati – potrebbero essere lette tra anni. Le organizzazioni devono quindi iniziare a usare nuove tecniche di crittografia “post-quantistica”, pensate per resistere anche a queste macchine superpotenti.

Leggi anche: ” Le minacce cyber che ci aspettano nel 2026

*Illustrazione progettata da Freepick

Continua a Leggere

News

Il lato oscuro dell’evoluzione delle reti

DDoS, ransomware e intelligenza artificiale: le telecomunicazioni diventano un campo di battaglia sempre più strategico

Pubblicato

il

Il settore delle telecomunicazioni è uno dei pilastri invisibili della nostra vita digitale: telefonate, Internet, streaming, servizi cloud e persino molti sistemi bancari passano dalle loro reti. Proprio per questo, restano un bersaglio privilegiato dei criminali informatici. Secondo un’analisi diffusa da Kaspersky, le minacce che hanno messo sotto pressione gli operatori nel 2025 continueranno a farsi sentire anche nel 2026, affiancate da nuovi rischi legati all’evoluzione tecnologica.

Le minacce “classiche” non spariscono

Tra i pericoli principali ci sono gli attacchi APT (Advanced Persistent Threat). Si tratta di intrusioni molto mirate e silenziose: invece di “sfondare la porta”, gli attaccanti cercano di entrare di nascosto e restare dentro a lungo, un po’ come una spia che si infiltra in un edificio con un badge rubato. L’obiettivo può essere lo spionaggio, il furto di dati o la possibilità di sabotare servizi in un secondo momento.

Un altro punto debole è la catena di approvvigionamento. Le telco non lavorano da sole: usano software, hardware e servizi forniti da molte aziende esterne. Se uno di questi fornitori viene compromesso, l’attacco può propagarsi “a cascata”. È come installare a casa un impianto di allarme sicurissimo… ma con un tecnico che lascia una copia delle chiavi in giro.

Restano poi i DDoS, attacchi che puntano a rendere irraggiungibili i servizi sovraccaricandoli di traffico fasullo. Immaginiamo migliaia di chiamate finte che intasano un centralino: le richieste vere non riescono più a passare. Per un operatore telefonico o Internet, questo significa disservizi per milioni di utenti.

I numeri aiutano a capire la portata del fenomeno: tra fine 2024 e fine 2025, oltre il 12% degli utenti del settore telco è stato esposto a minacce Web e più del 20% a minacce sui dispositivi. Quasi il 10% delle organizzazioni di telecomunicazioni ha inoltre subito attacchi ransomware, cioè malware che bloccano i sistemi chiedendo un riscatto.

Nuove tecnologie, nuovi rischi

Oltre alle minacce note, il 2026 potrebbe essere complicato anche per colpa dell’innovazione. Sempre più reti vengono gestite con l’aiuto dell’intelligenza artificiale. L’automazione aiuta a reagire più in fretta ai problemi, ma può anche amplificare errori: se un sistema “capisce male” un dato, rischia di applicare automaticamente una configurazione sbagliata su larga scala, come un navigatore che manda migliaia di auto tutte nella stessa strada chiusa.

C’è poi il tema della crittografia post-quantistica, cioè le nuove tecniche pensate per resistere ai futuri computer quantistici. Il passaggio non è semplice: soluzioni introdotte in fretta potrebbero creare problemi di compatibilità o rallentamenti nelle reti.

Infine, l’integrazione tra reti 5G e satellitari promette copertura anche nelle aree più remote, ma aggiunge nuovi “punti di contatto” tra sistemi diversi e partner differenti. Ogni collegamento in più è anche un possibile punto di guasto o di attacco.

La sfida: sicurezza + innovazione

Secondo i ricercatori, gli operatori dovranno lavorare su due fronti: difendersi meglio dalle minacce già conosciute e, allo stesso tempo, integrare la sicurezza fin dall’inizio nelle nuove tecnologie. Significa più monitoraggio, più formazione del personale e strumenti capaci di individuare rapidamente comportamenti anomali nelle reti. In un mondo sempre più connesso, proteggere le telecomunicazioni vuol dire proteggere un pezzo fondamentale della nostra vita quotidiana.

Leggi anche: “5 banche colpite da attacchi DDOS

*Illustrazione progettata da Kaspersky

Continua a Leggere

News

La casa è smart, ma è sicura?

Messaggi, meme e abbonamenti condivisi uniscono le famiglie, ma espongono a nuove minacce informatiche

Pubblicato

il

La vita familiare passa sempre più dallo schermo. Tra chat, videochiamate e piattaforme di streaming condivise, le relazioni quotidiane si muovono ormai in uno spazio digitale che offre comodità, ma anche nuovi rischi. È quanto emerge da una recente ricerca di Kaspersky, che fotografa le abitudini delle famiglie italiane nell’era iperconnessa.

Secondo lo studio, il 95% degli italiani comunica con i propri familiari attraverso strumenti online. Le app di messaggistica come WhatsApp o Telegram sono lo strumento più usato (87%), seguite dalle videochiamate, scelte dal 49% degli intervistati. Non mancano poi i gruppi di famiglia dove ci si scambia meme, foto e post divertenti: lo fa il 43% delle persone. In pratica, il classico pranzo della domenica oggi continua anche durante la settimana… sotto forma di notifiche.

I rischi principali

Questa vicinanza digitale è un grande vantaggio, soprattutto per chi vive lontano. Ma più tempo passiamo online, più aumentano le occasioni per i criminali informatici. Uno dei rischi principali è il phishing, cioè i messaggi truffa che fingono di arrivare da qualcuno di fidato — per esempio un familiare, una banca o un corriere — per convincerci a cliccare su un link o inserire password. È un po’ come ricevere una finta telefonata da un “parente in difficoltà”: cambia il mezzo, ma il trucco è lo stesso.

C’è poi il social engineering, un termine tecnico che indica le tecniche usate per manipolare le persone facendo leva su emozioni come urgenza, paura o curiosità. Un esempio? Un messaggio che dice: “Guarda questa tua foto imbarazzante” con un link allegato. La fretta di controllare può far abbassare la guardia anche agli utenti più attenti. Per questo gli esperti consigliano di attivare, quando possibile, l’autenticazione a due fattori: oltre alla password serve un secondo codice temporaneo, spesso inviato via SMS o app. Anche se qualcuno scopre la password, senza quel codice non può entrare.

Account condivisi? Un problema!

La ricerca evidenzia anche un’altra abitudine molto diffusa: gli account condivisi. Il 40% delle famiglie utilizza lo stesso abbonamento streaming per più persone. Comodo, certo. Ma se un solo dispositivo viene infettato da un virus o una password finisce in mani sbagliate, l’accesso all’account può essere compromesso per tutti. È come lasciare un’unica chiave di casa sotto lo zerbino: pratico, ma rischioso.

Un errore frequente è usare la stessa password per più servizi. Se un sito subisce una violazione, i criminali provano automaticamente quelle credenziali anche su email, social e piattaforme di pagamento. Per evitare questo effetto domino, Kaspersky suggerisce l’uso di un gestore di password, un’app che crea e conserva codici lunghi e diversi per ogni account, così noi dobbiamo ricordarne solo uno.

 Bambini e anziani sono spesso i più esposti alle truffe digitali, ma con qualche regola chiara — niente link sospetti, password diverse, aggiornamenti attivi — la tecnologia può restare un ponte tra le persone, non una porta aperta ai rischi.

Leggi anche: “Il phishing che imita i grandi brand

*Illustrazione progettata da Freepick

Continua a Leggere

Articoli

Intelligenza Artificiale al gusto privacy

Come costruire un LLM che mantiene i vostri dati e le vostre idee solidamente nelle vostre mani

Pubblicato

il

Ai modelli linguistici di grandi aziende come OpenAI, Google o Anthropic non manca certo la potenza, ma hanno un limite evidente: girano solo sui loro server e vi obbligano a inviare i vostri dati a infrastrutture che non controllate. Un LLM locale ribalta la prospettiva: tutto rimane sulla vostra macchina, senza intermediari. Questo significa maggiore privacy, indipendenza da abbonamenti e connessioni più veloci quando il modello gira bene. Le alternative Open Source sono ormai mature: progetti come Ollama, GPT4All o interfacce come LM Studio rendono più facile che mai avviare un LLM sul vostro server o PC Linux. Non avrete le stesse performance dei colossi, ma potrete modellare l’assistente digitale sulle vostre esigenze.

 

Preparare l’ambiente

Per partire serve un ambiente Linux affidabile, per esempio Ubuntu Server LTS o Debian. La scelta dell’hardware  dipende dalle vostre aspettative. Con un PC modesto, dotato di CPU multicore e almeno 16 GB di RAM, potete già sperimentare modelli ridotti, magari quantizzati in int4 per occupare meno memoria. Se invece volete un’esperienza fluida, puntate su una workstation con GPU moderna (NVIDIA con almeno 8-12 GB di VRAM, o schede AMD con supporto ROCm) e 32 GB di RAM. Per un uso regolare, inoltre, l’accelerazione GPU è vivamente consigliata: riduce i tempi di risposta e rende i modelli realmente fruibili. Anche l’archiviazione non va sottovalutata: un singolo modello può pesare decine di gigabyte. Una volta verificata la compatibilità dell’hardware, installate i driver aggiornati della CPU e librerie come CUDA o ROCm. Da qui potete procedere con uno strumento che semplifica la gestione dei modelli: Ollama è tra i più popolari. L’installazione è immediata. Su Ubuntu, per esempio, usate:

curl -fsSL https://ollama.com/install.sh | sh

Questo script prepara l’ambiente e scarica i componenti necessari. Un primo test con ollama run llama2 vi permette di avviare una sessione interattiva con un modello preconfigurato. In alternativa, potete usare GPT4All, che fornisce pacchetti desktop per Linux e un’interfaccia semplice per caricare modelli in locale. In entrambi i casi, il passo critico è verificare che il sistema riconosca la GPU: un comando come nvidia-smi o rocminfo vi dirà se tutto è pronto.

Se volete usare i modelli Open Source di Meta, la pagina ufficiale di Llama (https://www.llama.com/docs/overview/ ) è il punto di partenza: qui trovate le diverse versioni disponibili, le istruzioni per installarle su Linux e le risorse per sfruttarle al meglio

 

Scaricare e usare i modelli

Scegliete poi il modello da utilizzare. Il panorama è ampio e in continua evoluzione. I repository di riferimento sono Hugging Face, che raccoglie migliaia di modelli Open Source mantenuti da comunità e centri di ricerca, e la libreria ufficiale di Ollama, che mette a disposizione versioni pronte all’uso di LLaMA 2, Mistral, Phi-3 e altri.
Per decidere quale scaricare dovete bilanciare qualità e requisiti hardware. I modelli di dimensioni ridotte (3B-7B parametri) possono girare su un portatile senza GPU dedicata, seppure con tempi di risposta più lunghi. I modelli medi (13B) richiedono almeno 32 GB di RAM o una GPU con 8-12 GB di VRAM per offrire un’esperienza soddisfacente. I più grandi (30B o oltre) sono affascinanti, ma di fatto impraticabili senza workstation dedicate. Con Ollama il download è immediato.

Per esempio:
ollama pull mistral
ollama run mistral

Il primo comando scarica il modello, il secondo avvia una sessione interattiva. Potete porre domande direttamente dal terminale, ma non siete costretti a lavorare da riga di comando. Esistono interfacce Web leggere, come textgeneration-webui, che permettono di avviare più modelli, regolare i parametri e tenere la cronologia delle sessioni. Se lavorate con il codice, potete integrare il modello nel vostro editor preferito, come VS Code, grazie a plug-in che trasformano l’LLM in un assistente di programmazione offline. È importante anche imparare a personalizzare il comportamento del modello. Parametri come la temperature regolano la creatività delle risposte, mentre il top-k e il top-p incidono sulla varietà. Un valore basso rende il modello più prevedibile, uno alto più originale. Potete inoltre preparare prompt di partenza, per esempio per riassumere testi, generare email o correggere codice, e riutilizzarli nelle sessioni successive. In questo modo l’LLM diventa un vero strumento operativo. Le prime prove pratiche vi faranno capire cosa può fare bene un modello locale e dove invece mostra dei limiti: non aspettatevi ricerche aggiornate o conoscenze universali, ma godetevi la libertà di avere un assistente tutto vostro, su misura (leggi box sotto) e senza vincoli esterni.

 

Ottimizzare e mantenere il vostro LLM

Una volta avviato un modello e verificato che funziona, il passo successivo è ottimizzare le prestazioni e impostare  una manutenzione ordinaria. Un concetto chiave è la quantizzazione, cioè la riduzione della precisione numerica dei pesi del modello. Le versioni a 8 bit o 4 bit consumano molta meno memoria e permettono di usare modelli più grandi anche su hardware limitato, con un compromesso accettabile sulla qualità. Molti modelli distribuiti da Hugging Face o Ollama sono già disponibili in varianti quantizzate: vi basterà scegliere quella compatibile con la vostra macchina. Per l’uso quotidiano è utile isolare il modello in un container Docker o Podman, così da mantenere pulito l’ambiente e aggiornare facilmente quando escono nuove versioni. La manutenzione non è solo tecnica, ma anche organizzativa. Conviene stabilire un calendario di aggiornamenti delle librerie, perché l’ecosistema LLM Open Source evolve a grande velocità. Allo stesso tempo, è importante monitorare consumi e prestazioni: un modello grande può saturare la RAM o stressare la GPU, con conseguente calo della stabilità. Soluzioni di logging e metriche, anche semplici come htop o nvidia-smi, vi aiutano a capire se il sistema regge.

 

Sicurezza e aspettative

Un altro aspetto riguarda la sicurezza. Anche se i modelli sono locali, le librerie che li gestiscono sono software come tutti gli altri, con bug e vulnerabilità. Tenere Ollama, GPT4All o textgeneration-webui aggiornati è quindi parte integrante della manutenzione. Sul fronte integrazione, potete collegare il vostro LLM a chatbot personali, sistemi di automazione o script di shell per creare veri assistenti digitali privati. È giusto riconoscere i limiti: un LLM locale non raggiunge la potenza dei servizi cloud commerciali e consuma parecchie risorse. Ma vi offre indipendenza, possibilità di sperimentare, personalizzazione e, soprattutto, la certezza che i vostri dati restano nelle vostre mani.

 

Approfondimento

UN LLM A VOSTRA IMMAGINE E SOMIGLIANZA

Mettere in piedi un modello linguistico locale è già una conquista. Ma la vera differenza arriva quando potete insegnargli qualcosa di tarato sulle vostre esigenze. Non serve addestrare da zero (operazione riservata a chi dispone di datacenter e miliardi di frasi): basta eseguire un fine-tuning mirato o sfruttare tecniche leggere che trasformano un modello generico in un assistente su misura. Nel finetuning leggero con LoRA (Low-Rank Adaptation), invece di modificare tutti i miliardi di parametri del modello, aggiungete dei piccoli “adattatori” che lo spingono a imitare un certo stile. Per esempio, potete fornirgli un corpus di vostri scritti e ottenere un modello che produce testi con il  vostro tono, il vostro vocabolario e le vostre formule tipiche. Strumenti come PEFT (Parameter-Efficient Fine-Tuning) in ambiente Python o interfacce grafiche come, per esempio, text-generationwebui semplificano il processo.
In pratica basta organizzare i dati in formato testuale (un file per ogni articolo o paragrafo), avviare lo script di addestramento e attendere che la GPU faccia il suo lavoro. L’operazione può durare da poche ore a un paio di giorni, a seconda della quantità di dati e della potenza della macchina, ma il risultato è sorprendente: un modello che “parla come voi”. Se non avete una GPU potente, potete valutare la variante QLoRA, che riduce il consumo di memoria  comprimendo i pesi del modello. Questo permette di eseguire un fine-tuning anche su PC con 16 GB di RAM e una scheda grafica di fascia media, senza sacrificare troppo la qualità. È la soluzione più pratica per chi vuole  sperimentare senza dover investire in tanto hardware costoso. Un’alternativa molto interessante è il Retrieval-Augmented Generation (RAG). Qui non modificate il modello, ma lo arricchite “al volo” con una base di conoscenza. I vostri documenti vengono indicizzati in un motore di ricerca locale (per esempio ChromaDB o Weaviate, nel mondo Open Source) e, ogni volta che ponete una domanda, il sistema recupera i testi pertinenti e li passa come contesto al modello. Risultato: l’LLM risponde usando le vostre fonti, senza che abbiate bisogno di eseguire addestramenti. È un approccio veloce e flessibile, adatto per manuali tecnici, documentazione aziendale o raccolte personali di articoli.  Quale metodo scegliere dipende poi dalle vostre esigenze. Se volete un modello che imiti il vostro stile di scrittura, il finetuning LoRA è decisamente la strada giusta. Se invece vi interessa che il modello “conosca” e utilizzi un certo corpus senza cambiarne i parametri, RAG è più rapido ed economico. In entrambi i casi, l’importante è preparare  bene i dati: testi puliti, privi di rumore e ben segmentati aumentano la qualità dei risultati.

 

 

Leggi anche: “Un corso online per difendere gli LLM

*Illustrazione progettata da Freepick

Continua a Leggere

In Edicola & Digitale

Cover Hacker Journal 287 - Così ti rubano gli account
286 – Dall’11 novembre 2025!

Forum

Trending