Connect with us

Articoli

A cosa servono i router e gli switch e quali sono le differenze

Pubblicato

il

Nella rete di computer, ci sono diversi dispositivi che consentono ai dati di essere trasmessi da un punto all’altro. Due di questi dispositivi sono switch e router. Mentre entrambi i dispositivi sono utilizzati per connettere diversi dispositivi di rete, hanno scopi diversi e sono utilizzati in contesti diversi.

Per acquistare router, switch e altri apparati per migliorare la tua sicurezza ti consigliamo di comprare su ollo shop, un e-commerce specializzata nel mondo dell’elettronica che offre prodotti di ottima qualità a prezzi molto vantaggiosi.

Nelle prossime righe andremo a vedere più nello specifico cosa sono i router e gli switch e quali sono le principali differenze tra loro.

Che cos’è uno Switch

Uno switch è un dispositivo di rete che connette diversi dispositivi sulla stessa rete locale (LAN) e consente la comunicazione tra di loro. Questo dispositivo è progettato per gestire una grande quantità di traffico dati sulla rete LAN, in modo che i dispositivi sulla stessa rete possano comunicare tra loro in modo efficiente e veloce.

Uno switch funziona inviando dati attraverso la rete LAN a destinazioni specifiche, in base all’indirizzo MAC (Media Access Control) del dispositivo di destinazione. L’indirizzo MAC è un identificatore univoco assegnato a ogni dispositivo di rete. Quando i dati vengono inviati attraverso la rete, lo switch cerca l’indirizzo MAC del dispositivo di destinazione e invia i dati solo a quel dispositivo. Ciò significa che solo il dispositivo di destinazione riceverà i dati, riducendo così la congestione di rete e migliorando le prestazioni.

Uno switch è in grado di gestire il traffico di rete LAN, ma non è in grado di instradare il traffico di rete su diverse reti. In altre parole, uno switch è limitato all’ambito di una singola rete LAN.

Che cos’è un Router

Un router è un dispositivo di rete che connette diverse reti e instrada il traffico di rete tra di esse. Un router è progettato per gestire il traffico di rete su diverse reti, comprese le reti LAN e WAN (Wide Area Network). Questo dispositivo è in grado di determinare il percorso più efficiente per instradare i dati sulla rete e di farlo in modo sicuro.

Un router funziona esaminando gli indirizzi IP dei dati in transito e inviandoli al percorso appropriato sulla rete. Gli indirizzi IP sono gli identificatori univoci assegnati a ogni dispositivo di rete sulla rete Internet. Quando un dispositivo sulla rete desidera inviare dati a un altro dispositivo su una rete diversa, i dati vengono inviati al router. Il router esamina l’indirizzo IP di destinazione e invia i dati al percorso appropriato sulla rete. Ciò significa che il router è in grado di gestire il traffico di rete su diverse reti e di instradare i dati in modo sicuro e efficiente.

Quali sono le differenze tra switch e router

Le principali differenze tra switch e router sono legate alle loro funzioni e alla loro capacità di gestire il traffico di rete. Uno switch è progettato per gestire il traffico di rete all’interno di una singola rete locale, ovvero una LAN (Local Area Network), e connettere diversi dispositivi tra di loro. Un router, d’altra parte, è progettato per gestire il traffico di rete tra diverse reti, inclusi i collegamenti tra reti locali e la connessione a Internet.

In termini di come instradano i dati, uno switch utilizza l’indirizzo MAC (Media Access Control) dei dispositivi di rete per inviare i dati alla giusta destinazione. Ciò significa che gli switch inviano i dati solo ai dispositivi che devono riceverli, riducendo la congestione di rete e migliorando le prestazioni complessive. Un router, invece, instrada i dati in base all’indirizzo IP (Internet Protocol) di destinazione. Questo significa che i router sono in grado di determinare il percorso migliore per inviare i dati su diverse reti, che possono includere molteplici punti intermedi tra la sorgente e la destinazione.

[wpdevart_facebook_comment curent_url="http://developers.facebook.com/docs/plugins/comments/" order_type="social" title_text="Facebook Comment" title_text_color="#000000" title_text_font_size="22" title_text_font_famely="monospace" title_text_position="left" width="100%" bg_color="#d4d4d4" animation_effect="random" count_of_comments="7" ]

Articoli

Intelligenza Artificiale al gusto privacy

Come costruire un LLM che mantiene i vostri dati e le vostre idee solidamente nelle vostre mani

Pubblicato

il

Ai modelli linguistici di grandi aziende come OpenAI, Google o Anthropic non manca certo la potenza, ma hanno un limite evidente: girano solo sui loro server e vi obbligano a inviare i vostri dati a infrastrutture che non controllate. Un LLM locale ribalta la prospettiva: tutto rimane sulla vostra macchina, senza intermediari. Questo significa maggiore privacy, indipendenza da abbonamenti e connessioni più veloci quando il modello gira bene. Le alternative Open Source sono ormai mature: progetti come Ollama, GPT4All o interfacce come LM Studio rendono più facile che mai avviare un LLM sul vostro server o PC Linux. Non avrete le stesse performance dei colossi, ma potrete modellare l’assistente digitale sulle vostre esigenze.

 

Preparare l’ambiente

Per partire serve un ambiente Linux affidabile, per esempio Ubuntu Server LTS o Debian. La scelta dell’hardware  dipende dalle vostre aspettative. Con un PC modesto, dotato di CPU multicore e almeno 16 GB di RAM, potete già sperimentare modelli ridotti, magari quantizzati in int4 per occupare meno memoria. Se invece volete un’esperienza fluida, puntate su una workstation con GPU moderna (NVIDIA con almeno 8-12 GB di VRAM, o schede AMD con supporto ROCm) e 32 GB di RAM. Per un uso regolare, inoltre, l’accelerazione GPU è vivamente consigliata: riduce i tempi di risposta e rende i modelli realmente fruibili. Anche l’archiviazione non va sottovalutata: un singolo modello può pesare decine di gigabyte. Una volta verificata la compatibilità dell’hardware, installate i driver aggiornati della CPU e librerie come CUDA o ROCm. Da qui potete procedere con uno strumento che semplifica la gestione dei modelli: Ollama è tra i più popolari. L’installazione è immediata. Su Ubuntu, per esempio, usate:

curl -fsSL https://ollama.com/install.sh | sh

Questo script prepara l’ambiente e scarica i componenti necessari. Un primo test con ollama run llama2 vi permette di avviare una sessione interattiva con un modello preconfigurato. In alternativa, potete usare GPT4All, che fornisce pacchetti desktop per Linux e un’interfaccia semplice per caricare modelli in locale. In entrambi i casi, il passo critico è verificare che il sistema riconosca la GPU: un comando come nvidia-smi o rocminfo vi dirà se tutto è pronto.

Se volete usare i modelli Open Source di Meta, la pagina ufficiale di Llama (https://www.llama.com/docs/overview/ ) è il punto di partenza: qui trovate le diverse versioni disponibili, le istruzioni per installarle su Linux e le risorse per sfruttarle al meglio

 

Scaricare e usare i modelli

Scegliete poi il modello da utilizzare. Il panorama è ampio e in continua evoluzione. I repository di riferimento sono Hugging Face, che raccoglie migliaia di modelli Open Source mantenuti da comunità e centri di ricerca, e la libreria ufficiale di Ollama, che mette a disposizione versioni pronte all’uso di LLaMA 2, Mistral, Phi-3 e altri.
Per decidere quale scaricare dovete bilanciare qualità e requisiti hardware. I modelli di dimensioni ridotte (3B-7B parametri) possono girare su un portatile senza GPU dedicata, seppure con tempi di risposta più lunghi. I modelli medi (13B) richiedono almeno 32 GB di RAM o una GPU con 8-12 GB di VRAM per offrire un’esperienza soddisfacente. I più grandi (30B o oltre) sono affascinanti, ma di fatto impraticabili senza workstation dedicate. Con Ollama il download è immediato.

Per esempio:
ollama pull mistral
ollama run mistral

Il primo comando scarica il modello, il secondo avvia una sessione interattiva. Potete porre domande direttamente dal terminale, ma non siete costretti a lavorare da riga di comando. Esistono interfacce Web leggere, come textgeneration-webui, che permettono di avviare più modelli, regolare i parametri e tenere la cronologia delle sessioni. Se lavorate con il codice, potete integrare il modello nel vostro editor preferito, come VS Code, grazie a plug-in che trasformano l’LLM in un assistente di programmazione offline. È importante anche imparare a personalizzare il comportamento del modello. Parametri come la temperature regolano la creatività delle risposte, mentre il top-k e il top-p incidono sulla varietà. Un valore basso rende il modello più prevedibile, uno alto più originale. Potete inoltre preparare prompt di partenza, per esempio per riassumere testi, generare email o correggere codice, e riutilizzarli nelle sessioni successive. In questo modo l’LLM diventa un vero strumento operativo. Le prime prove pratiche vi faranno capire cosa può fare bene un modello locale e dove invece mostra dei limiti: non aspettatevi ricerche aggiornate o conoscenze universali, ma godetevi la libertà di avere un assistente tutto vostro, su misura (leggi box sotto) e senza vincoli esterni.

 

Ottimizzare e mantenere il vostro LLM

Una volta avviato un modello e verificato che funziona, il passo successivo è ottimizzare le prestazioni e impostare  una manutenzione ordinaria. Un concetto chiave è la quantizzazione, cioè la riduzione della precisione numerica dei pesi del modello. Le versioni a 8 bit o 4 bit consumano molta meno memoria e permettono di usare modelli più grandi anche su hardware limitato, con un compromesso accettabile sulla qualità. Molti modelli distribuiti da Hugging Face o Ollama sono già disponibili in varianti quantizzate: vi basterà scegliere quella compatibile con la vostra macchina. Per l’uso quotidiano è utile isolare il modello in un container Docker o Podman, così da mantenere pulito l’ambiente e aggiornare facilmente quando escono nuove versioni. La manutenzione non è solo tecnica, ma anche organizzativa. Conviene stabilire un calendario di aggiornamenti delle librerie, perché l’ecosistema LLM Open Source evolve a grande velocità. Allo stesso tempo, è importante monitorare consumi e prestazioni: un modello grande può saturare la RAM o stressare la GPU, con conseguente calo della stabilità. Soluzioni di logging e metriche, anche semplici come htop o nvidia-smi, vi aiutano a capire se il sistema regge.

 

Sicurezza e aspettative

Un altro aspetto riguarda la sicurezza. Anche se i modelli sono locali, le librerie che li gestiscono sono software come tutti gli altri, con bug e vulnerabilità. Tenere Ollama, GPT4All o textgeneration-webui aggiornati è quindi parte integrante della manutenzione. Sul fronte integrazione, potete collegare il vostro LLM a chatbot personali, sistemi di automazione o script di shell per creare veri assistenti digitali privati. È giusto riconoscere i limiti: un LLM locale non raggiunge la potenza dei servizi cloud commerciali e consuma parecchie risorse. Ma vi offre indipendenza, possibilità di sperimentare, personalizzazione e, soprattutto, la certezza che i vostri dati restano nelle vostre mani.

 

Approfondimento

UN LLM A VOSTRA IMMAGINE E SOMIGLIANZA

Mettere in piedi un modello linguistico locale è già una conquista. Ma la vera differenza arriva quando potete insegnargli qualcosa di tarato sulle vostre esigenze. Non serve addestrare da zero (operazione riservata a chi dispone di datacenter e miliardi di frasi): basta eseguire un fine-tuning mirato o sfruttare tecniche leggere che trasformano un modello generico in un assistente su misura. Nel finetuning leggero con LoRA (Low-Rank Adaptation), invece di modificare tutti i miliardi di parametri del modello, aggiungete dei piccoli “adattatori” che lo spingono a imitare un certo stile. Per esempio, potete fornirgli un corpus di vostri scritti e ottenere un modello che produce testi con il  vostro tono, il vostro vocabolario e le vostre formule tipiche. Strumenti come PEFT (Parameter-Efficient Fine-Tuning) in ambiente Python o interfacce grafiche come, per esempio, text-generationwebui semplificano il processo.
In pratica basta organizzare i dati in formato testuale (un file per ogni articolo o paragrafo), avviare lo script di addestramento e attendere che la GPU faccia il suo lavoro. L’operazione può durare da poche ore a un paio di giorni, a seconda della quantità di dati e della potenza della macchina, ma il risultato è sorprendente: un modello che “parla come voi”. Se non avete una GPU potente, potete valutare la variante QLoRA, che riduce il consumo di memoria  comprimendo i pesi del modello. Questo permette di eseguire un fine-tuning anche su PC con 16 GB di RAM e una scheda grafica di fascia media, senza sacrificare troppo la qualità. È la soluzione più pratica per chi vuole  sperimentare senza dover investire in tanto hardware costoso. Un’alternativa molto interessante è il Retrieval-Augmented Generation (RAG). Qui non modificate il modello, ma lo arricchite “al volo” con una base di conoscenza. I vostri documenti vengono indicizzati in un motore di ricerca locale (per esempio ChromaDB o Weaviate, nel mondo Open Source) e, ogni volta che ponete una domanda, il sistema recupera i testi pertinenti e li passa come contesto al modello. Risultato: l’LLM risponde usando le vostre fonti, senza che abbiate bisogno di eseguire addestramenti. È un approccio veloce e flessibile, adatto per manuali tecnici, documentazione aziendale o raccolte personali di articoli.  Quale metodo scegliere dipende poi dalle vostre esigenze. Se volete un modello che imiti il vostro stile di scrittura, il finetuning LoRA è decisamente la strada giusta. Se invece vi interessa che il modello “conosca” e utilizzi un certo corpus senza cambiarne i parametri, RAG è più rapido ed economico. In entrambi i casi, l’importante è preparare  bene i dati: testi puliti, privi di rumore e ben segmentati aumentano la qualità dei risultati.

 

 

Leggi anche: “Un corso online per difendere gli LLM

*Illustrazione progettata da Freepick

Continua a Leggere

Articoli

Numeri che cambiano in tempo reale, come funzionano i sistemi predittivi

Pubblicato

il

By

Numeri in tempo reale

Chi osserva i sistemi digitali complessi sa che il vero valore non è nel dato statico, ma nella sua capacità di aggiornarsi. I sistemi predittivi moderni lavorano su flussi continui, assorbono informazioni, le ricalcolano e producono output che mutano costantemente. Lo sport, e in particolare il basket, è uno degli ambienti più adatti a questo tipo di elaborazione, perché combina eventi frequenti, variabili numerose e tempi estremamente compressi.

In questo contesto, parlare di numeri in tempo reale significa entrare nel cuore di un processo tecnologico che va ben oltre il risultato finale di una partita. È un tema che riguarda modelli matematici, infrastrutture software e capacità di adattamento istantaneo ai cambiamenti.

Il basket come ambiente ideale per i modelli dinamici

Dal punto di vista tecnico, il basket offre un terreno di prova ideale per i modelli predittivi. Ogni possesso genera informazioni: tiri tentati, percentuali, falli, cambi di quintetto, ritmo della partita. A differenza di altri sport, questi eventi sono numerosi e ravvicinati, consentendo aggiornamenti frequenti delle previsioni.

Un sistema che elabora dati sul basket non lavora su scenari ipotetici, ma su una sequenza continua di input che modificano le condizioni iniziali. Basta una serie di canestri consecutivi o un infortunio improvviso per alterare radicalmente l’equilibrio previsto.

Questo rende il basket particolarmente interessante per chi studia sistemi adattivi, in grado di ricalcolare parametri senza interrompere il flusso.

Dal dato grezzo all’informazione utilizzabile

Il passaggio critico non è la raccolta del dato, ma la sua trasformazione in informazione. I sistemi predittivi devono filtrare il rumore, pesare le variabili e aggiornare le stime in tempi compatibili con l’evento in corso. Questo implica una catena tecnologica fatta di acquisizione, normalizzazione, calcolo e distribuzione.

Ogni anello della catena introduce un potenziale punto di latenza. Ridurla significa ottimizzare algoritmi, infrastrutture di rete e capacità di calcolo. Nei contesti più avanzati, l’elaborazione avviene in parallelo, sfruttando architetture distribuite e sistemi di caching per evitare colli di bottiglia.

Il risultato è un output che appare “semplice” all’utente finale, ma che in realtà è il prodotto di una complessità elevata.

Quote come output di un sistema complesso

Uno degli output più visibili di questi processi è rappresentato dalle quote basket, che sintetizzano in un singolo valore una quantità significativa di informazioni. Dietro una quota non c’è una previsione statica, ma un sistema che reagisce continuamente agli eventi in corso e alle variazioni di contesto.

Dal punto di vista tecnico, la quota è una funzione che incorpora probabilità aggiornate, margini di sicurezza e correzioni in tempo reale. La sua variazione racconta più di quanto sembri: segnala cambiamenti di ritmo, squilibri emergenti, trend che si consolidano o si interrompono.

L’accesso a queste informazioni avviene attraverso piattaforme che devono garantire aggiornamenti costanti e affidabili che consentano di osservare concretamente come un sistema predittivo traduca il flusso di dati in valori aggiornati, offrendo un esempio pratico di applicazione di modelli dinamici.

Qui l’interesse non è l’uso finale, ma il meccanismo tecnologico che rende possibile l’aggiornamento continuo.

Latenza, affidabilità e fiducia nel sistema

In un sistema predittivo, pochi secondi fanno la differenza. La latenza non è solo un problema tecnico, ma un fattore che incide sull’affidabilità complessiva del modello. Un dato aggiornato in ritardo perde parte del suo valore informativo, soprattutto in un contesto rapido come il basket.

Per questo motivo, le piattaforme che lavorano su dati in tempo reale investono in infrastrutture ridondanti e sistemi di monitoraggio costante. L’obiettivo è mantenere coerenza tra ciò che accade sul campo e ciò che viene rappresentato digitalmente.

Dal punto di vista dell’utente esperto, la fiducia nel sistema nasce proprio da questa coerenza. Quando numeri e realtà divergono, il modello perde credibilità.

Predizione come processo continuo

Un errore comune è considerare la predizione come un atto puntuale. In realtà, nei sistemi moderni è un processo continuo. Ogni previsione è valida solo fino al prossimo evento rilevante. Questo richiede un’architettura flessibile, capace di ricalcolare senza interrompere il servizio.

Nel basket, questa dinamica è particolarmente evidente: una partita non segue un andamento lineare, ma è fatta di accelerazioni, pause, inversioni improvvise. I sistemi predittivi devono essere progettati per gestire questa instabilità strutturale.

Oltre lo sport, una logica applicabile

Sebbene il basket rappresenti un caso di studio efficace, le logiche alla base dei sistemi predittivi in tempo reale trovano applicazione in molti altri ambiti: mercati finanziari, gestione del traffico, monitoraggio energetico. Lo sport diventa così un laboratorio osservabile di dinamiche che altrove restano più opache.

Analizzare come funzionano questi sistemi attraverso esempi concreti aiuta a comprendere meglio una delle sfide centrali dell’informatica moderna: trasformare flussi instabili di dati in informazioni affidabili, senza fermare il mondo mentre i calcoli vengono aggiornati.

Ed è proprio in questa capacità di adattamento continuo che si misura l’evoluzione dei sistemi digitali contemporanei.

 

Continua a Leggere

Articoli

Cracker, l’altra faccia dell’hacking

“Hacker”. Dietro questa parola si nasconde un mondo fatto di innovazione, sicurezza e passione per la tecnologia. La vera minaccia sono i cracker. Ma ci sono ancora dubbi…

Pubblicato

il

Ogni volta che un attacco informatico fa notizia, i titoli dei giornali riportano frasi allarmanti come “hacker che rubano dati” o “hacker che attaccano aziende e governi”. L’immaginario collettivo, plasmato da anni di film, serie TV
e narrazioni mediatiche, associa la figura dell’hacker a un individuo incappucciato, nascosto nell’ombra, intento a digitare frenetici codici su uno schermo pieno di numeri verdi in stile Matrix. Questa rappresentazione, sebbene affascinante, è una semplificazione fuorviante che non riflette la realtà. Gli hacker non sono tutti criminali informatici e, anzi, molti di loro lavorano per proteggere i nostri dati e migliorare la sicurezza digitale.

QUELLI CATTIVI

Un hacker è, prima di tutto, una persona curiosa e appassionata di tecnologia. Il suo obiettivo non è distruggere, danneggiare, bensì comprendere come funzionano i sistemi e spingerli al limite per migliorarne le prestazioni e la sicurezza. Gli hacker sono spesso esperti di informatica, crittografi a e sicurezza digitale, e il loro contributo è essenziale per il progresso tecnologico. Molti di loro lavorano per aziende, organizzazioni governative e istituzioni accademiche, con il compito di individuare falle nei sistemi prima che possano essere sfruttate da veri criminali informatici. Questi professionisti sono noti come “hacker etici” o “white hat”, specialisti di cybersecurity che mettono alla prova infrastrutture digitali per rafforzarne la protezione. Senza gli hacker, Internet sarebbe un ambiente più pericoloso. Sono loro a sviluppare protocolli di sicurezza, migliorare la crittografi a delle comunicazioni e creare difese contro virus e attacchi informatici. Grazie al loro lavoro, le transazioni online, i dati personali e le info sensibili possono essere protette da intrusioni indesiderate. Se oggi possiamo affidarci a connessioni sicure per operazioni bancarie, acquisti online e comunicazioni private, è in gran parte merito del loro impegno.

 

NEL WEB

Se gli hacker sono figure tecnicamente preparate che usano le loro competenze per il bene comune, chi sono allora i veri criminali informatici? La risposta è chiara: i cracker. I cracker, a differenza degli hacker, violano sistemi informatici per scopi malevoli. Il loro obiettivo non è la conoscenza, ma il profitto, la vendetta o il puro vandalismo. Alcuni rubano dati personali per venderli nel dark web, altri diffondono malware per infettare computer e reti aziendali, altri ancora utilizzano tecniche come il ransomware, criptando file e chiedendo un riscatto per ripristinarli.
Queste attività, purtroppo, causano danni enormi a privati, aziende e istituzioni pubbliche. Milioni di euro vengono persi ogni anno a causa di attacchi informatici, e il cybercrimine rappresenta oggi una delle minacce più gravi per l’economia globale. La distinzione tra hacker e cracker è dunque cruciale: gli hacker esplorano e proteggono, i cracker distruggono e sfruttano. Tuttavia, nei media questa differenza si è persa, e il termine “hacker” viene spesso usato in modo improprio per indicare chiunque compia reati informatici.

DAL CYBERCRIMINE ALL’HACKTIVISMO

Non tutti gli hacker, però, rientrano nella categoria dei “white hat” o dei criminali informatici. Esiste anche un’altra categoria: gli hacktivisti, cioè coloro che usano le proprie competenze per scopi politici o sociali. Gli hacktivisti si muovono in una zona grigia dell’etica digitale. Non attaccano i sistemi per denaro, ma per diff ondere informazioni censurate, svelare scandali politici o combattere regimi oppressivi. Il gruppo Anonymous è uno degli esempi più noti: negli anni, hanno rivelato documenti riservati, smascherato corruzione e difeso la libertà di espressione. Alcuni li considerano eroi digitali, altri semplici criminali informatici. Indipendentemente dalle opinioni, il loro impatto sulla
società è innegabile.

 

DISTINZIONI NECESSARIE

Continuare a confondere hacker e cracker non è solo un errore linguistico, ma una distorsione che danneggia chi lavora nel settore della sicurezza informatica. Definire un esperto di cybersecurity un “criminale” significa alimentare un pregiudizio ingiusto e ignorare il valore del loro lavoro. Le aziende, i governi e gli utenti comuni devono comprendere questa distinzione per poter navigare nel mondo digitale con maggiore consapevolezza. La prossima volta che sentirete parlare di un attacco informatico, ponetevi una domanda: è stato un hacker o un cracker?

 

 

Leggi anche: “I gadget preferiti dagli hacker

Continua a Leggere

Articoli

Il phishing che imita i grandi brand

Non solo virus: oggi la minaccia più comune passa da login falsi e pagine identiche a quelle originali

Pubblicato

il

Il phishing continua a essere una delle minacce informatiche più diffuse e pericolose. Non servono virus sofisticati o attacchi degni di un film: spesso basta una finta pagina di login o un’e-mail ben scritta per convincere una persona a consegnare volontariamente le proprie password. È quanto emerge dal nuovo report di Check Point Research sulle tendenze del brand phishing nel quarto trimestre del 2025. Ma che cos’è il brand phishing? In parole semplici, è una truffa online in cui i criminali informatici si fingono aziende famose e affidabili – come Microsoft, Google o Amazon – per ingannare le vittime. L’utente crede di essere sul sito “giusto”, inserisce le proprie credenziali e, senza accorgersene, le consegna agli attaccanti.

I marchi presi di mira

Secondo il report, Microsoft è ancora una volta il marchio più imitato, coinvolto nel 22% di tutti i tentativi di phishing legati ai brand. Seguono Google (13%) e Amazon (9%), spinta soprattutto dal periodo di Black Friday e acquisti natalizi. Torna nella top 10 anche Facebook, segno che gli account social restano un obiettivo molto appetibile per i criminali.

Il motivo è semplice: le credenziali valgono oro. Una password Microsoft o Google, ad esempio, può aprire la porta alla posta elettronica, ai documenti salvati nel cloud, alle chat di lavoro e perfino ad altri servizi collegati. È un po’ come consegnare le chiavi di casa insieme a quelle dell’ufficio. Il settore più colpito resta quello tecnologico, seguito dai social network e dai servizi finanziari. I cybercriminali sanno che fingendosi piattaforme molto usate aumentano le probabilità di successo: più un servizio è familiare, meno l’utente tende a sospettare.

Il report racconta anche alcuni casi concreti. Uno dei più insidiosi riguarda Roblox, piattaforma amatissima dai più giovani. Gli attaccanti hanno creato un sito con un indirizzo quasi identico a quello originale (cambiando una sola lettera) e un gioco falso dall’aspetto realistico. Cliccando su “Gioca”, i bambini venivano portati a una pagina di login identica a quella ufficiale, dove le credenziali venivano rubate senza alcun segnale evidente.

Pagina fraudolenta del gioco Roblox

Pagina di accesso fraudolenta a Roblox

Un altro esempio è Netflix: una finta pagina di “recupero account” chiedeva e-mail e password, sfruttando la paura di perdere l’accesso al proprio abbonamento. Stessa tecnica anche per Facebook, con pagine tradotte in lingua locale per sembrare ancora più credibili.

Pagina fraudolenta di Netflix

 

Pagina Facebook (Meta) fraudolenta

 

La forza del phishing sta proprio qui: grafica curata, indirizzi Web simili a quelli reali e messaggi che fanno leva su urgenza, paura o curiosità. Per difendersi non servono competenze tecniche avanzate, ma attenzione: controllare sempre l’indirizzo del sito, diffidare di link ricevuti via e-mail o messaggio e, soprattutto, non inserire mai le proprie password partendo da un link. Un piccolo gesto che può evitare grandi problemi.

Leggi anche: “L’IA attira sempre più i piccoli

*Illustrazione progettata da Checkpoint

Continua a Leggere

Articoli

Una distro tagliata su misura

Costruire una distro con Linux From Scratch significa libertà totale: niente compromessi, solo i pacchetti scelti e controllati da voi

Pubblicato

il

Sicuramente le distribuzioni Linux pronte all’uso sono comode. Installate Ubuntu, Fedora o Debian e avete subito a
disposizione un sistema completo. Ma questa comodità porta con sé vincoli e compromessi: pacchetti scelti da altri, servizi attivi di default, librerie che non userete mai… Con Linux From Scratch (LFS) il paradigma si ribalta. Qui siete voi a decidere tutto: dal compilatore al gestore di init, dal kernel alle librerie utente. Non c’è software imposto e nessun pacchetto superfluo. Questo vi permette di ottenere un sistema più snello, cucito sulle vostre esigenze. Non solo: eliminando i livelli di astrazione tipici delle distro generaliste, avrete un controllo totale sulla superficie d’attacco e anche sulla manutenzione. Se vi interessa un server che faccia solo quello che volete, senza processi nascosti, o un ambiente desktop minimale che non sprechi risorse, LFS è la strada più diretta.

 

Preparare il terreno di lavoro

Il primo passo è predisporre l’ambiente. LFS non si installa “sopra” come una normale distro: si costruisce da zero all’interno di uno spazio dedicato. Potete usare un vecchio PC, un server secondario o una macchina virtuale: l’importante è avere una partizione vuota o un disco dedicato. Il progetto consiglia di partire da una distro Linux funzionante che faccia da “host”, ossia l’ambiente in cui compilerete i sorgenti. Qui installerete i pacchetti indispensabili: compilatore GCC, binutils, make, bash, tar e altri strumenti di base. Il metodo LFS si articola in due fasi. Nella prima create una toolchain temporanea: compilatore, linker e librerie essenziali isolati dal sistema host. Questo garantisce che i pacchetti successivi vengano costruiti in un ambiente controllato, senza dipendere da configurazioni esterne. Una volta pronta la toolchain, entrate in un chroot nella nuova partizione: da qui in avanti lavorerete come se foste già dentro la vostra futura distro. Ogni pacchetto viene scaricato dai sorgenti ufficiali, verificato con checksum, scompattato, configurato, compilato e installato in sequenza. Non è un’operazione rapida: LFS introduce il concetto di SBU (Standard Build Unit), cioè il tempo impiegato a compilare binutils sul vostro hardware. Ogni altro pacchetto viene stimato in multipli di quell’unità: alcuni richiedono pochi minuti, altri ore intere. In questa fase scegliete già l’impronta del sistema: se sarà un server ridotto all’osso o la base per un desktop più ampio.

Il progetto Linux From Scratch mette a disposizione non solo le istruzioni per costruire una distro da zero, ma anche guide complementari per estenderla (BLFS), automatizzarla (ALFS) o adattarla a scenari particolari. Un ecosistema che permette di creare un vero sistema operativo personalizzato

 

Compilare i componenti di base

Arrivati all’interno del chroot dedicato, dovete compilare uno a uno i pacchetti fondamentali del sistema. Ogni installazione segue una sequenza tipica: scaricare i sorgenti, scompattarli, configurare, compilare e installare. Per esempio, per Bash farete:

tar -xf bash-5.2.tar.gz
cd bash-5.2
./configure –prefix=/usr –without-bash-malloc
make
make install

Questo schema ritorna con quasi tutti i pacchetti, anche se ogni progetto introduce opzioni specifiche. LFS vi guida passo dopo passo, indicando quali parametri usare per evitare dipendenze indesiderate e assicurare la coerenza
del sistema. Non è un lavoro meccanico: compilare glibc, per esempio, richiede particolare attenzione, perché è la libreria standard su cui si basano praticamente tutti gli altri programmi.

tar -xf glibc-2.39.tar.xz
cd glibc-2.39
mkdir build && cd build
../configure –prefix=/usr –disable-werror
make
make install

Una volta installato il kernel e configurato il bootloader (GRUB resta la scelta più comune, ma potete optare per syslinux se vi serve un ambiente molto leggero o per systemd-boot se usate systemd), il vostro sistema è già in grado di avviarsi.

Personalizzare la distribuzione

Con la base installata, entra in gioco la vera libertà: la personalizzazione. Il primo nodo riguarda l’init system, cioè il modo in cui il sistema si avvia e gestisce i servizi. LFS propone ancora SysVinit, storico e lineare: semplice da configurare, leggibile in ogni sua parte e facilmente modificabile. Ma non siete vincolati: potete decidere di integrare
systemd, con la sua gestione avanzata di log e dipendenze, oppure optare per alternative minimaliste come runit o s6, amate da chi costruisce server snelli o ambienti embedded. Cambiare init non è un dettaglio: influenza la struttura dell’intero sistema, il modo in cui i processi vengono monitorati e le possibilità di debugging. Il kernel è l’altro grande campo di personalizzazione. Con il comando make menuconfig potete entrare in un’interfaccia testuale che elenca centinaia di opzioni. Qui scegliete non solo quali moduli abilitare, ma anche se integrarli direttamente o mantenerli esterni.

Solo quello che vi serve

Immaginate di voler creare un router domestico: potrete abilitare solo il supporto Ethernet, Netfilter e le funzioni necessarie per il NAT, eliminando tutto ciò che riguarda audio, grafica o periferiche superflue. Per un server di posta
basterà un kernel con supporto ai filesystem usati e ai driver di rete. Una volta definito l’impianto di base, si passa ai servizi e alle librerie. Qui entra in gioco BLFS (Beyond Linux From Scratch), che vi accompagna nell’aggiunta di tutto ciò che non è strettamente necessario al boot ma che rende un sistema realmente utilizzabile nel quotidiano. Potete installare Xorg per avere un server grafico, scegliere un window manager leggerissimo come i3 o Openbox, oppure spingervi verso ambienti completi come KDE Plasma o GNOME, accettando però un aumento di complessità e dipendenze.
Ecco un esempio di compilazione manuale di Xorg:
tar -xf xorg-server-21.1.8.tar.xz
cd xorg-server-21.1.8
./configure –prefix=/usr –disable-static
make
make install

Per un desktop minimale, potete unire Xorg, un window manager e un browser leggero come Dillo o Midori, ottenendo un sistema reattivo anche su hardware datato.

Rete e sicurezza

Un altro livello di personalizzazione riguarda i servizi di rete. Non vi interessa avere cupsd per la stampa o avahi per il discovery automatico? Basta non compilarli. Vi serve invece un server SSH sicuro per gestire la macchina da remoto? Installate OpenSSH e configuratelo con chiavi pubbliche, evitando login via password. Volete usare la distro
come appliance per un singolo compito? Potete costruire un sistema che avvia direttamente un servizio specifico, per esempio un server Web con nginx o un container runtime, senza nemmeno caricare un desktop. LFS vi permette anche di decidere quali librerie supportare. Potete scegliere versioni minimali di libjpeg, libpng o zlib, riducendo la dimensione complessiva, oppure integrare stack completi per multimedia e sviluppo. In un ambiente server potete limitare le librerie grafiche, mentre in un desktop di lavoro potete installare GTK, Qt o entrambe, a seconda delle applicazioni che volete far girare. Non mancano le ottimizzazioni per la sicurezza: potete configurare OpenSSL
abilitando solo gli algoritmi che vi interessano, oppure integrare iptables/nftables direttamente nel kernel per avere un firewall nativo all’avvio.

 

Manutenzione e autonomia

Una volta completata la costruzione, vi trovate di fronte a un sistema unico, ma anche a una responsabilità: non esiste un package manager. Ogni aggiornamento richiede di scaricare i sorgenti aggiornati, ricompilare e reinstallare. Potete organizzare script di automazione, o usare progetti paralleli come ALFS (Automated LFS) per ridurre la fatica. La manutenzione è parte integrante dell’indipendenza. Significa monitorare le vulnerabilità dei pacchetti che avete scelto, aggiornare il kernel quando necessario e ricompilare le librerie critiche. Ma significa anche poter intervenire a livello profondo: personalizzare il kernel per ridurre la superficie d’attacco, eliminare demoni inutili, controllare ogni singolo file di configurazione. I limiti ci sono: LFS non è la strada migliore se cercate aggiornamenti rapidi o facilità d’uso. Per server dedicati, appliance, ambienti embedded o workstation offre, però, un controllo totale. In questi contesti, l’assenza di software imposto diventa un vantaggio. Nessuno può decidere per voi di introdurre systemd, Snap o servizi cloud nascosti: siete voi a governare tutto.

 

Leggi anche: “AxOS: una distro a prova di tracciamento

*Illustrazione progettata da Freepik

Continua a Leggere

Articoli

Test hardware: switch KVM

Un piccolo dispositivo con cui controllare PC e server via Internet è davvero un gioco da ragazzi. E il prezzo è imbattibile

Pubblicato

il

Gli switch KVM sono dispositivi che si usano per controllare due o più server (o semplici desktop) con una sola tastiera, un solo mouse e un solo monitor. Il KVM che abbiamo provato per questo numero, JetKVM, è particolare: non è pensato per controllare più macchine presenti nella stessa stanza/rete locale, bensì tramite il protocollo IP
consente di gestire un server, o un PC, da remoto via Internet usando un altro computer. Ovunque ci troviamo, possiamo collegarci a una particolare pagina Web che ci mostra il desktop del sistema operativo in esecuzione sul computer da controllare.

Usare JetKVM è davvero facile (qui stiamo controllando una macchina Linux Mint), ma ciò non preclude l’accesso a tante opzioni per migliorare il collegamento, compresa la creazione di macro per velocizzare le operazioni e la regolazione della qualità video

Com’è fatto?

Nella scatolina che contiene JetKVM troviamo, oltre allo switch IP, un cavo HDMI/mini HDMI, un cavo USB-C/USB-A e un cavo splitter USB-C che permette di separare alimentazione e connessione dati se la macchina da controllare non fornisce alimentazione USB in standby. Bisogna collegare JetKVM e PC da controllare usando il cavo HDMI e quello USB-C/USB-A, poi si mette in rete il JetKVM connettendo un cavo di rete (non si può usare il Wi-Fi) e si è pronti al primo setup. JetKVM nella parte frontale integra un piccolo display che mostra l’indirizzo IP che gli è stato assegnato dal router. Lo inseriamo in un browser Web e ci ritroviamo in un’interfaccia Web che avvia la rapida
operazione di setup. Ci viene chiesto di impostare o meno una password per accedere al PC da controllare, dopodiché appare una schermata con alcuni pulsanti e, al centro in grande, lo schermo del computer da gestire. Possiamo quindi usarlo come se fossimo davanti a esso. Al momento stiamo comunque controllando un PC che abbiamo sotto mano, nella nostra rete locale. Per controllare server/PC da remoto entra in gioco il protocollo IP. Ipotizziamo di uscire di casa e di aver bisogno di modificare un’impostazione di un server. Digitando l’indirizzo https://app.jetkvm.com/ avremo accesso al nostro server. Per poterlo fare prima di uscire di casa è necessario la prima volta registrare il nostro JetKVM e il computer da controllare dall’interfaccia Web dello switch. Basta cliccare sul pulsante Settings, andare alla voce Access e qui cliccare sul pulsante Adopt KVM to Cloud account. Ci registriamo presso il servizio con la nostra email di Gmail (è supportato solo questo servizio) e poi aggiungiamo il computer da controllare. Insomma, è tutto davvero semplice. Il passaggio da Internet causa un po’ di ritardo nella trasmissione, ma è quasi impercettibile. L’interfaccia Web di JetKVM ci permette di far apparire una tastiera virtuale in caso di bisogno, di accedere anche al BIOS della macchina, di installare un nuovo sistema operativo e in Settings abbiamo tante opzioni per aggiustare la connessione e gestire la macchina remota. Gli utenti più esperti possono anche usare Tailscale per il controllo remoto, al posto del sistema cloud di JetKVM.

 

SPECIFICHE:

Sistema operativo: Linux 5.10 con Buildroot
CPU: RockChip RV1106G3, Cortex A7 1 GHz
RAM: 256 MB DDR3L
Storage: 16 GB eMMC
Schermo: 1,69″ IPS, 240×280 pixel, touch screen capacitivo
Porte: Ethernet RJ45 (100Mbps), USB-C 2.0, Mini HDMI, porta d’espansione RJ12

 

 

Leggi anche: “Test hardware: Fritz!Box 7690

Continua a Leggere

Articoli

AxOS: una distro priva di tracciamento

Semplifica Arch Linux senza snaturarlo, con un’installazione guidata, ambienti desktop curati e massima attenzione alla privacy

Pubblicato

il

AxOS è una distribuzione indipendente basata su Arch, nata con l’obiettivo dichiarato di “migliorare” Linux intervenendo su estetica, performance e semplicità d’uso. L’installazione avviene tramite un sistema guidato chiamato Epsilon, che permette di configurare partizionamento, ambiente desktop, kernel, driver e pacchetti opzionali in pochi passaggi. Il processo è semplice e ben documentato. Potete scegliere fra quattro ambienti: Plasma, orientato alla completezza; Calla, leggerissimo e minimalista; Sleex, costruito su Hyprland con effetti grafici molto curati, widget e overlay personalizzati e, infine, Theom, una versione molto essenziale, basata su i3wm. Tutti condividono lo stesso tema grafico, con modalità scura e chiara selezionabili e una coerenza stilistica rara tra distribuzioni multi-desktop. I pacchetti sono gestiti con pacman ma anche tramite Epsilon (epsi), uno strumento sviluppato dal team che consente installazioni pulite e sicure, evitando duplicati e integrando la compatibilità con l’AUR. I componenti sono compilati con flag ottimizzati per le performance e la distribuzione supporta il kernel Zen come opzione.

L’edizione Plasma offre un’interfaccia ispirata ai desktop tradizionali e offre un ambiente solido, configurabile e immediato, con pieno supporto alle applicazioni Qt

 

Privacy senza compromessi

AxOS si distingue anche per un’impostazione radicale sul piano della privacy: nessuna telemetria, niente raccolta dati oltre al fatto che Bluetooth e rete sono disabilitati al primo avvio. Il filesystem Btrfs è configurato per creare snapshot automatici prima di fare gli aggiornamenti. Questo garantisce una sicurezza notevole senza sacrificare la natura rolling release del sistema. Anche se in generale il progetto è solido, non mancano alcune criticità: la distribuzione
non supporta Secure Boot, non è ottimizzata per l’uso in una macchina virtuale e richiede una certa competenza nei desktop più essenziali, in cui molte configurazioni si fanno da terminale o tramite file JSON. Sleex, pur ricco di  funzioni innovative, può risultare instabile in alcuni scenari. Inoltre, AxOS è disponibile solo per architettura x86‑64, senza supporto per ARM o 32 bit. Nel complesso è una buona distribuzione per utenti consapevoli che cercano una base solida, una gestione pulita e uno stile visivo moderno, con privacy e controllo dell’utente elevati.

L’ambiente Sleex punta sull’estetica e sull’interazione con effetti grafici, widget dinamici e un’interfaccia Hyprland altamente personalizzabile

 

Leggi anche: “Qbes: la distro Linux super-blindata

Continua a Leggere

In Edicola & Digitale

Cover Hacker Journal 287 - Così ti rubano gli account
286 – Dall’11 novembre 2025!

Forum

Trending