Connect with us

Articoli

Il tuo computer è degno di essere infettato?

Pubblicato

il

Ora il malware decide se infettare il tuo PC o meno

I malware piu recenti esaminano lo stato del PC prima di decidere se vale la pena infettarlo oppure no. Scopri con noi questo nuovo fenomeno.

Non tutti i computer sono veloci. E per un hacker che voglia infettarli, per esempio per usarli per la produzione di bitcoin, sceglierne uno lento è nella migliore delle ipotesi una perdita di tempo, nella peggiore aumenta il rischio di essere individuati. Per evitare alla fonte questo pericolo, degli astuti pirati informatici hanno trovato il modo di selezionare la maniera con la quale, una volta attaccato, viene infettato il PC da parte di trojan, virus e malware in generale, e se vale la pena farlo.

Esperti di sicurezza americani hanno difatti trovato, nella giungla dei malware che infettano i PC con l’obiettivo di asservirli e trasformarli in minatori di bitcoin, un virus che fa un triage preventivo. Questi software malevoli hanno preso il posto di quelli che, fino a qualche mese fa, cifravano il contenuto dei dischi per poi chiedere un ricatto per lo sblocco.

Se vuoi saperne di più non perdere l’appuntamento con Hacker Journal 224 in edicola oppure online (anche in versione digitale)!

[wpdevart_facebook_comment curent_url="http://developers.facebook.com/docs/plugins/comments/" order_type="social" title_text="Facebook Comment" title_text_color="#000000" title_text_font_size="22" title_text_font_famely="monospace" title_text_position="left" width="100%" bg_color="#d4d4d4" animation_effect="random" count_of_comments="7" ]

Articoli

I bot diventano sofisticati

Oggi sono in grado di aggirare le difese e rappresentano minacce automatizzate che riescono a passare inosservate. Ecco le nuove tendenze e i rischi da cui difendersi

Pubblicato

il

Nel mondo iperconnesso in cui viviamo, applicazioni e interfacce di programmazione (API) sono il motore delle organizzazioni moderne. Una dipendenza che espone le imprese a nuove superfici di attacco, spesso difficili da presidiare con gli strumenti di sicurezza tradizionali. Tra le minacce più insidiose spiccano i bot di nuova generazione, capaci di confondersi con gli utenti legittimi e di sfruttare falle logiche anziché vulnerabilità tecniche. Facciamo il punto.

Advanced Persistent

Partiamo dal rapporto intitolato Advanced Persistent Bots 2025 di F5 Labs che ha messo in evidenza come i bot abbiano raggiunto un livello di sofisticazione tale da eludere molte delle soluzioni consolidate.
Non si tratta più di attacchi rumorosi o immediatamente riconoscibili: i bot agiscono con continuità, adottano comportamenti plausibili e operano a un livello di astrazione che rende inefficaci controlli come CAPTCHA o blocchi IP.

Il grafico mostra la distribuzione del traffico bot non autorizzato suddiviso per livello di sofisticazione, con distinzione tra ambiente web e mobile. Fonte

Credential stuffing

Uno degli scenari più ricorrenti è il credential stuffing, la pratica che sfrutta combinazioni di username e password sottratte in precedenti violazioni di dati. L’abitudine, radicata negli utenti, di riutilizzare le stesse password su più piattaforme trasforma queste credenziali in un passepartout per accedere a servizi differenti. Gli aggressori utilizzano botnet automatizzate per tentare migliaia di accessi simultanei. Anche se la percentuale di successo è ridotta, il volume dei tentativi rende l’attacco estremamente redditizio. Episodi noti, come la compromissione di migliaia di account PayPal o la recente esposizione dei dati sensibili dei clienti dell’azienda 23andMe, mostrano la portata del fenomeno. In quest’ultimo caso, i profili violati sono stati messi in vendita nel dark web con un valore che cresceva proporzionalmente al numero di account inclusi. L’impiego di soluzioni come l’autenticazione multifattore (MFA) rappresenta un passo avanti, ma non risolve il problema. Nuove tecniche come i proxy di phishing in tempo reale intercettano e replicano le sessioni degli utenti, bypassando i meccanismi di protezione. Per questo le aziende devono puntare su sistemi di rilevamento comportamentale, capaci di distinguere l’attività legittima da quella automatizzata
attraverso l’analisi di variabili come la provenienza del traffico, la velocità di digitazione o la coerenza delle sessioni.

 

Settore Hospitality

Un altro terreno colpito è quello dell’ospitalità e della vendita al dettaglio, dove si registra un aumento costante di attacchi ai sistemi di pagamento e ai programmi fedeltà. Secondo i dati riportati nel rapporto F5, l’attività dei bot in questo settore è cresciuta in alcuni casi di oltre tre volte rispetto all’anno precedente. Due tecniche risultano prevalenti: il carding e gli attacchi alle gift card. Il carding sfrutta i bot per testare grandi quantità di numeri di carte di pagamento rubate, verificandone la validità attraverso moduli di checkout o API dedicate. I bot specializzati sulle gift card, invece, prendono di mira i sistemi fedeltà, monitorando i saldi, riscattando premi o trasferendo punti con modalità fraudolente. Il valore economico di queste risorse digitali, facilmente convertibili in denaro o beni, rende l’hospitality un bersaglio privilegiato. I criminali sfruttano pattern prevedibili, come codici sequenziali nelle carte regalo, e la mancanza di controlli avanzati. Per difendersi, le aziende devono affiancare ai sistemi antifrode tradizionali strumenti specifici per la mitigazione del traffico automatizzato, con controlli granulari sulle transazioni e analisi dei comportamenti anomali.

Schema architetturale di una rete proxy residenziale: i bot malevoli utilizzano servizi di autenticazione e instradamento per mascherare il traffico attraverso nodi di gestione. Fonte

Tecniche di evasione

Uno dei motivi principali per cui i bot risultano così difficili da bloccare è la loro capacità di aggirare i meccanismi difensivi più diffusi. I CAPTCHA, un tempo barriera efficace, oggi possono essere risolti in pochi secondi grazie a piattaforme che impiegano persone reali – le cosiddette click farm – a un costo irrisorio per i cybercriminali. Parallelamente, l’uso dei proxy residenziali ha reso il traffico dei bot quasi indistinguibile da quello degli utenti legittimi. Queste reti sfruttano dispositivi compromessi per mascherare l’origine del traffico, generando indirizzi IP apparentemente comuni e non riconducibili a data center sospetti. Aziende come Okta hanno segnalato campagne di credential stuffing di scala massiva proprio grazie a queste infrastrutture di evasione. Contrastare simili tattiche richiede soluzioni che vadano oltre la semplice analisi dell’IP o la verifica dei CAPTCHA. Occorrono strumenti basati su intelligenza artificiale e machine learning, capaci di correlare dati, rilevare anomalie e costruire profili di rischio dinamici per ogni interazione.

 

La gestione del rischio

La difesa dai bot non può limitarsi a un approccio reattivo. Ogni organizzazione deve valutare il proprio livello di esposizione e determinare il grado di rischio tollerabile. L’obiettivo deve essere un bilanciamento intelligente: ridurre al minimo le attività malevole, preservando le automatizzazioni necessarie. La risposta più efficace è una strategia multilivello, che integri tecniche di rilevamento avanzato, controlli di accesso adattivi e monitoraggio continuo del comportamento degli utenti. L’approccio DevSecOps, che incorpora la sicurezza fin dalle prime fasi di sviluppo delle applicazioni, diventa un tassello fondamentale per anticipare le mosse dei bot e ridurre la superficie d’attacco.

Minaccia strutturale

Riassumendo, il quadro delineato dal rapporto F5 Labs dimostra che i bot non sono un fenomeno episodico, ma una minaccia strutturale e persistente. La loro capacità di mimetizzarsi, adattarsi ed evolversi impone un cambio di mentalità nella gestione della sicurezza. Non basta più ragionare in termini di barriere statiche: serve una resilienza
dinamica, in cui l’analisi dei dati, l’automazione difensiva e il monitoraggio continuo lavorino in sinergia.

Continua a Leggere

Articoli

L’invasione delle segnalazioni ai repo

L’IA aiuta ma sta anche creando problemi al software Open Source. Ecco come gestire questo nuovo nemico

Pubblicato

il

Negli ultimi mesi molti maintainer Open Source hanno avuto la stessa sensazione: aprite il repository, trovate nuove issue o segnalazioni di sicurezza… e dopo poche righe capite che qualcosa non torna. È l’IA che parla, non una  persona. L’uso indiscriminato di modelli generativi sta inondando i repository Open Source di issue e vulnerability report falsi o di bassissima qualità. Per esempio, il fondatore del progetto Curl, Daniel Stenberg, è stanco della valanga di segnalazioni di bug “slop” generate dall’Intelligenza Artificiale e ha recentemente introdotto una casella di controllo per filtrare le segnalazioni poco accurate che fanno perdere tempo ai manutentori. Stenberg ha affermato che il tempo impiegato dai manutentori del progetto per vagliare ogni segnalazione di vulnerabilità assistita dall’Intelligenza Artificiale effettuata tramite HackerOne, solo per poi ritenerla non valida, equivale a un attacco DDoS al progetto. La tentazione quindi è guardare alle piattaforme e dire “devono risolverla loro”. In parte è vero, ma se vi fermate lì state rinunciando alla leva più importante: il comportamento di chi segnala e di chi mantiene.

 

Cosa fare per segnalare correttamente

Se segnalate problemi, fermatevi un attimo prima di premere “Submit”. Usare l’IA per scansionare codice e “trovare vulnerabilità” oggi è una scorciatoia che può portare fuori strada. Non perché l’idea sia malvagia, ma perché questi strumenti non sempre capiscono davvero il codice. Una vulnerabilità non è una stringa sospetta: è una combinazione di logica, uso reale e assunzioni umane. Se volete fare scanning su larga scala, la prima regola è semplice: l’IA non può avere l’ultima parola. Ogni report deve essere letto, capito e validato da una persona, quindi da voi. Quel tempov va pagato da voi, non scaricato sui maintainer. Aprire decine di issue tutte insieme “per vedere cosa succede” non è sperimentazione ma è scaricare costi su volontari. E soprattutto: presentatevi con qualcosa di concreto. Un report accompagnato da una patch cambia molto la conversazione. State dicendo: “ho fatto parte del lavoro”, non “ora tocca a voi”.

Il repo di curl è stato preso di mira da migliaia di issue generate dall’IA, al punto che l’evento è stato sostanzialmente considerato un DDoS

 

Come difendervi se siete maintainer

Una delle trappole più comuni è sentirsi obbligati a rispondere con cura a qualsiasi segnalazione, ma se qualcuno vi dedica zero attenzione, potete legittimamente fare lo stesso. Davanti a un report che “puzza” di IA, la strategia più efficace è una risposta corta e neutra: dichiarate il sospetto, chiedete più giustificazioni e chiudete. Se dall’altra parte c’è una persona reale e competente, tornerà con spiegazioni migliori. In quel caso avrete perso poco tempo e guadagnato una segnalazione forse valida. Se non risponde nessuno, avete filtrato rumore con uno sforzo minimo. Quando siete indecisi, ricordatevi che non siete soli. Chiedere un secondo parere a qualcuno di fiducia nella community non è una debolezza, è una difesa collettiva. E fate attenzione a un dettaglio ricorrente nei report di bassa qualità: spesso il problema non è nel vostro progetto, ma nel codice di esempio fornito dal reporter, che usa la libreria in modo insicuro e poi attribuisce la colpa a voi.

 

Le piattaforme possono aiutare, ma non basta

Rate limit, CAPTCHA, meno incentivi “gamificati” alle segnalazioni: sono tutte misure sensate. Ma da sole non risolvono il problema. L’IA abbassa il costo di produrre rumore, e nessun filtro tecnico sarà mai perfetto. La vera differenza la fanno le norme non scritte della comunità: cosa considerate accettabile, cosa ignorate senza rimorsi, cosa premiate con attenzione. Se come reporter alzate l’asticella e come maintainer smettete di “educare” lo spam, il sistema inizia lentamente a riequilibrarsi.

 

 

Leggi anche: “Intelligenza Artificiale al gusto privacy

Continua a Leggere

Articoli

Test hardware: BOOX Note Air4 C

Un tablet Android con schermo E-Ink a colori con cui prendere appunti sui libri, creare note, installare app e molto, molto altro…

Pubblicato

il

OOX Note Air4 C di Onyx racchiude in un unico dispositivo un tablet Android, un lettore di ebook con schermo E-Ink, un bloc-notes elettronico… e molto altro. Forse già da queste prime parole si capisce l’entusiasmo che abbiamo provato durante la recensione di questo dispositivo di Onyx e perché ci accompagna tutti i giorni nello zaino, ma andiamo per gradi.

Tablet, penna e custodia

Il prezzo che abbiamo indicato a fianco della foto del BOOX comprende, oltre al tablet, anche la custodia, la penna e cinque punte di ricambio. La cifra richiesta non è certo bassa, ma la qualità del tablet e dell’insieme è alta, per cui alla fine il rapporto qualità/prezzo è più che positivo. La penna è quella standard, se si vuole la Pen2 Pro che integra la gomma nell’estremità opposta alla punta bisogna pagare un po’ di più per il bundle. Dobbiamo dire che la combinazione penna/schermo fa sì che la sensazione di scrivere sia molto simile a quella che si ha con la carta, è molto naturale. La penna gestisce un gran numero di livelli di pressione, dettaglio interessante se si disegna per esempio. Inoltre è magnetica: la si può ancorare al fianco destro del tablet, in cui sono presenti due magneti, uno in alto e uno in basso. Peccato che a volte trovare la posizione giusta non è immediato e la penna non si ancora in modo stabile. La custodia, anch’essa magnetica, è molto utile per proteggere lo schermo durante il trasporto e può fare  anche da supporto per tenere il tablet in piedi, lievemente inclinato, e leggere o scrivere senza tenerlo in mano.

Schermo E-Ink a colori

Dentro a un corpo in alluminio che appare ben solido troviamo uno schermo E-Ink Kaleido 3 da 10,3 pollici in grado di visualizzare 4096 colori. Non sono vivaci come quelli prodotti da uno schermo LCD, ovviamente, ma sono un plus molto gradito rispetto agli schermi in bianco e nero. Questo sia nella lettura di libri, riviste o fumetti, sia quando si fanno annotazioni e si prendono appunti. Lo schermo è retroilluminato, quindi è possibile usare il tablet in ogni  condizione di luce. Un aggiornamento software ha eliminato un difetto: al risveglio dopo lo standby, la luminosità scendeva al minimo. Ora invece sono stati introdotti quattro livelli di luminosità e al risveglio è attivo quello scelto; rimane sempre presente lo slider per regolarla a piacere, ovviamente. Il contrasto è ottimo e la reattività dello schermo più che buona. La velocità di aggiornamento dello schermo è gestibile dalle impostazioni in base all’attività che dobbiamo fare: attivando la velocità maggiore ci siamo divertiti a provare la visualizzazione di un video su YouTube. Ebbene, pur essendo molto lontani dalla fluidità che si ha su uno schermo LCD/OLED, in caso di emergenza può tornare utile. Ovviamente i consumi aumentano con l’aumentare della velocità di refresh. Con i libri in ogni formato, PDF compreso, la resa è davvero eccellente.

Per trasferire libri e riviste tra l’ebook reader e il computer, e viceversa, invece di collegare via cavo USB possiamo usare il cloud o l’app preinstallata BooxDrop, davvero molto comoda, visto che ci fa fare tutto via browser Web

 

L’uso come taccuino

Oltre che per leggere, questo tablet è pensato anche per fungere da taccuino digitale. E in questo ci è parso davvero eccellente. È possibile fare annotazioni sui libri o prendere appunti su fogli bianchi o con vari template (a righe, a quadretti, pentagramma, ecc.). In quest’ultimo caso, oltre a scegliere i colori e la tipologia del tratto (penna, evidenziatore, ecc.) si possono usare i livelli, davvero utilissimi. Le annotazioni sui libri si fanno con estrema facilità, sia scritte “a mano” con la penna, sia digitandole con la tastiera a schermo; le note scritte a mano, volendo, si possono far riconoscere dal tablet per trasformarle in testo digitale, con una ottima precisione. Le annotazioni si potrebbero anche dettare, ma almeno per ora sono riconosciuti solo l’inglese e il cinese. Invece funziona abbastanza bene, in italiano, la lettura del testo: grazie alla cassa audio integrata (ma si possono collegare anche degli auricolari Bluetooth), il tablet è in grado di leggerci il libro che abbiamo aperto. Il sistema ha qualche problema nel leggere le parole con le doppie t, ma in generale la resa è piacevole. I libri/riviste con le note si possono salvare poi su PC, con le annotazioni che appaiono proprio come quelle che si fanno con Acrobat, quindi leggibili da chiunque. Infine, è possibile farsi tradurre in varie lingue le parole che si selezionano.

Installare app

Non dimentichiamo poi che è un tablet Android: possiamo navigare in Rete e installare le app dal Play Store; troviamo integrato anche un assistente IA che male non fa. Alcune funzioni IA ci aiutano anche durante la scrittura e le annotazioni. Tra le app che abbiamo installato, per esempio, troviamo quella di Instapaper, così a fine serata riusciamo a rileggere gli articoli Web che abbiamo salvato comodamente sdraiati a letto. Insomma, la versatilità è massima. Utilissima la funzione BooxDrop che consente di trasferire file da e verso il tablet via browser Web e  l’integrazione con il cloud gratuito di Onyx e, volendo, anche con Google Drive, OneDrive, Dropbox, ecc. Altrettanto utile in alcune situazioni la possibilità di proiettare, via wireless, lo schermo del tablet sullo schermo del PC attivando la funzione dal menu a discesa di Android e inserendo l’indirizzo IP indicato nel browser del computer. Usando per uun’ora e mezza o due il BOOX tutti i giorni abbiamo registrato un’autonomia di circa una settimana. La memoria interna di 64 GB ci è parsa più che sufficiente ed è comunque espandibile tramite microSD (lo slot è poco visibile, ma è presente sotto la porta USB-C per la ricarica); il peso complessivo di 702 grammi consente il trasporto nello zaino senza troppi problemi.

Con la penna in dotazione è facile fare annotazioni su libri, riviste e documenti vari, oltre che creare note proprio come se scrivessimo sulla carta.

SPECIFICHE TECNICHE

Display: 10,3” E Ink Kaleido 3 Carta 1200
Risoluzione: 2480×1860 p (b/n); 1240×930 p (colori)
Densità pixel: 300 ppi (b/n); 150 ppi (colori)
Illuminazione: Regolabile in intensità e tonalità
CPU: Qualcomm Octa-Core + GPU BSR
RAM: 6 GB LPDDR4x
Memoria interna: 64 GB UFS 2.2
Porte: lettore microSD, USB-C
Connettività: Wi-Fi 6, Bluetooth 5.1, USB-C OTG
Audio: Microfono, altoparlanti stereo
Batteria: 3700 mAh
Dimensioni: 226 x193x5,8 mm
Peso: 430 g

Quanto costa: € 499,99
Acquistalo qui

Continua a Leggere

Articoli

Intelligenza Artificiale al gusto privacy

Come costruire un LLM che mantiene i vostri dati e le vostre idee solidamente nelle vostre mani

Pubblicato

il

Ai modelli linguistici di grandi aziende come OpenAI, Google o Anthropic non manca certo la potenza, ma hanno un limite evidente: girano solo sui loro server e vi obbligano a inviare i vostri dati a infrastrutture che non controllate. Un LLM locale ribalta la prospettiva: tutto rimane sulla vostra macchina, senza intermediari. Questo significa maggiore privacy, indipendenza da abbonamenti e connessioni più veloci quando il modello gira bene. Le alternative Open Source sono ormai mature: progetti come Ollama, GPT4All o interfacce come LM Studio rendono più facile che mai avviare un LLM sul vostro server o PC Linux. Non avrete le stesse performance dei colossi, ma potrete modellare l’assistente digitale sulle vostre esigenze.

 

Preparare l’ambiente

Per partire serve un ambiente Linux affidabile, per esempio Ubuntu Server LTS o Debian. La scelta dell’hardware  dipende dalle vostre aspettative. Con un PC modesto, dotato di CPU multicore e almeno 16 GB di RAM, potete già sperimentare modelli ridotti, magari quantizzati in int4 per occupare meno memoria. Se invece volete un’esperienza fluida, puntate su una workstation con GPU moderna (NVIDIA con almeno 8-12 GB di VRAM, o schede AMD con supporto ROCm) e 32 GB di RAM. Per un uso regolare, inoltre, l’accelerazione GPU è vivamente consigliata: riduce i tempi di risposta e rende i modelli realmente fruibili. Anche l’archiviazione non va sottovalutata: un singolo modello può pesare decine di gigabyte. Una volta verificata la compatibilità dell’hardware, installate i driver aggiornati della CPU e librerie come CUDA o ROCm. Da qui potete procedere con uno strumento che semplifica la gestione dei modelli: Ollama è tra i più popolari. L’installazione è immediata. Su Ubuntu, per esempio, usate:

curl -fsSL https://ollama.com/install.sh | sh

Questo script prepara l’ambiente e scarica i componenti necessari. Un primo test con ollama run llama2 vi permette di avviare una sessione interattiva con un modello preconfigurato. In alternativa, potete usare GPT4All, che fornisce pacchetti desktop per Linux e un’interfaccia semplice per caricare modelli in locale. In entrambi i casi, il passo critico è verificare che il sistema riconosca la GPU: un comando come nvidia-smi o rocminfo vi dirà se tutto è pronto.

Se volete usare i modelli Open Source di Meta, la pagina ufficiale di Llama (https://www.llama.com/docs/overview/ ) è il punto di partenza: qui trovate le diverse versioni disponibili, le istruzioni per installarle su Linux e le risorse per sfruttarle al meglio

 

Scaricare e usare i modelli

Scegliete poi il modello da utilizzare. Il panorama è ampio e in continua evoluzione. I repository di riferimento sono Hugging Face, che raccoglie migliaia di modelli Open Source mantenuti da comunità e centri di ricerca, e la libreria ufficiale di Ollama, che mette a disposizione versioni pronte all’uso di LLaMA 2, Mistral, Phi-3 e altri.
Per decidere quale scaricare dovete bilanciare qualità e requisiti hardware. I modelli di dimensioni ridotte (3B-7B parametri) possono girare su un portatile senza GPU dedicata, seppure con tempi di risposta più lunghi. I modelli medi (13B) richiedono almeno 32 GB di RAM o una GPU con 8-12 GB di VRAM per offrire un’esperienza soddisfacente. I più grandi (30B o oltre) sono affascinanti, ma di fatto impraticabili senza workstation dedicate. Con Ollama il download è immediato.

Per esempio:
ollama pull mistral
ollama run mistral

Il primo comando scarica il modello, il secondo avvia una sessione interattiva. Potete porre domande direttamente dal terminale, ma non siete costretti a lavorare da riga di comando. Esistono interfacce Web leggere, come textgeneration-webui, che permettono di avviare più modelli, regolare i parametri e tenere la cronologia delle sessioni. Se lavorate con il codice, potete integrare il modello nel vostro editor preferito, come VS Code, grazie a plug-in che trasformano l’LLM in un assistente di programmazione offline. È importante anche imparare a personalizzare il comportamento del modello. Parametri come la temperature regolano la creatività delle risposte, mentre il top-k e il top-p incidono sulla varietà. Un valore basso rende il modello più prevedibile, uno alto più originale. Potete inoltre preparare prompt di partenza, per esempio per riassumere testi, generare email o correggere codice, e riutilizzarli nelle sessioni successive. In questo modo l’LLM diventa un vero strumento operativo. Le prime prove pratiche vi faranno capire cosa può fare bene un modello locale e dove invece mostra dei limiti: non aspettatevi ricerche aggiornate o conoscenze universali, ma godetevi la libertà di avere un assistente tutto vostro, su misura (leggi box sotto) e senza vincoli esterni.

 

Ottimizzare e mantenere il vostro LLM

Una volta avviato un modello e verificato che funziona, il passo successivo è ottimizzare le prestazioni e impostare  una manutenzione ordinaria. Un concetto chiave è la quantizzazione, cioè la riduzione della precisione numerica dei pesi del modello. Le versioni a 8 bit o 4 bit consumano molta meno memoria e permettono di usare modelli più grandi anche su hardware limitato, con un compromesso accettabile sulla qualità. Molti modelli distribuiti da Hugging Face o Ollama sono già disponibili in varianti quantizzate: vi basterà scegliere quella compatibile con la vostra macchina. Per l’uso quotidiano è utile isolare il modello in un container Docker o Podman, così da mantenere pulito l’ambiente e aggiornare facilmente quando escono nuove versioni. La manutenzione non è solo tecnica, ma anche organizzativa. Conviene stabilire un calendario di aggiornamenti delle librerie, perché l’ecosistema LLM Open Source evolve a grande velocità. Allo stesso tempo, è importante monitorare consumi e prestazioni: un modello grande può saturare la RAM o stressare la GPU, con conseguente calo della stabilità. Soluzioni di logging e metriche, anche semplici come htop o nvidia-smi, vi aiutano a capire se il sistema regge.

 

Sicurezza e aspettative

Un altro aspetto riguarda la sicurezza. Anche se i modelli sono locali, le librerie che li gestiscono sono software come tutti gli altri, con bug e vulnerabilità. Tenere Ollama, GPT4All o textgeneration-webui aggiornati è quindi parte integrante della manutenzione. Sul fronte integrazione, potete collegare il vostro LLM a chatbot personali, sistemi di automazione o script di shell per creare veri assistenti digitali privati. È giusto riconoscere i limiti: un LLM locale non raggiunge la potenza dei servizi cloud commerciali e consuma parecchie risorse. Ma vi offre indipendenza, possibilità di sperimentare, personalizzazione e, soprattutto, la certezza che i vostri dati restano nelle vostre mani.

 

Approfondimento

UN LLM A VOSTRA IMMAGINE E SOMIGLIANZA

Mettere in piedi un modello linguistico locale è già una conquista. Ma la vera differenza arriva quando potete insegnargli qualcosa di tarato sulle vostre esigenze. Non serve addestrare da zero (operazione riservata a chi dispone di datacenter e miliardi di frasi): basta eseguire un fine-tuning mirato o sfruttare tecniche leggere che trasformano un modello generico in un assistente su misura. Nel finetuning leggero con LoRA (Low-Rank Adaptation), invece di modificare tutti i miliardi di parametri del modello, aggiungete dei piccoli “adattatori” che lo spingono a imitare un certo stile. Per esempio, potete fornirgli un corpus di vostri scritti e ottenere un modello che produce testi con il  vostro tono, il vostro vocabolario e le vostre formule tipiche. Strumenti come PEFT (Parameter-Efficient Fine-Tuning) in ambiente Python o interfacce grafiche come, per esempio, text-generationwebui semplificano il processo.
In pratica basta organizzare i dati in formato testuale (un file per ogni articolo o paragrafo), avviare lo script di addestramento e attendere che la GPU faccia il suo lavoro. L’operazione può durare da poche ore a un paio di giorni, a seconda della quantità di dati e della potenza della macchina, ma il risultato è sorprendente: un modello che “parla come voi”. Se non avete una GPU potente, potete valutare la variante QLoRA, che riduce il consumo di memoria  comprimendo i pesi del modello. Questo permette di eseguire un fine-tuning anche su PC con 16 GB di RAM e una scheda grafica di fascia media, senza sacrificare troppo la qualità. È la soluzione più pratica per chi vuole  sperimentare senza dover investire in tanto hardware costoso. Un’alternativa molto interessante è il Retrieval-Augmented Generation (RAG). Qui non modificate il modello, ma lo arricchite “al volo” con una base di conoscenza. I vostri documenti vengono indicizzati in un motore di ricerca locale (per esempio ChromaDB o Weaviate, nel mondo Open Source) e, ogni volta che ponete una domanda, il sistema recupera i testi pertinenti e li passa come contesto al modello. Risultato: l’LLM risponde usando le vostre fonti, senza che abbiate bisogno di eseguire addestramenti. È un approccio veloce e flessibile, adatto per manuali tecnici, documentazione aziendale o raccolte personali di articoli.  Quale metodo scegliere dipende poi dalle vostre esigenze. Se volete un modello che imiti il vostro stile di scrittura, il finetuning LoRA è decisamente la strada giusta. Se invece vi interessa che il modello “conosca” e utilizzi un certo corpus senza cambiarne i parametri, RAG è più rapido ed economico. In entrambi i casi, l’importante è preparare  bene i dati: testi puliti, privi di rumore e ben segmentati aumentano la qualità dei risultati.

 

 

Leggi anche: “Un corso online per difendere gli LLM

*Illustrazione progettata da Freepick

Continua a Leggere

Articoli

Numeri che cambiano in tempo reale, come funzionano i sistemi predittivi

Pubblicato

il

By

Numeri in tempo reale

Chi osserva i sistemi digitali complessi sa che il vero valore non è nel dato statico, ma nella sua capacità di aggiornarsi. I sistemi predittivi moderni lavorano su flussi continui, assorbono informazioni, le ricalcolano e producono output che mutano costantemente. Lo sport, e in particolare il basket, è uno degli ambienti più adatti a questo tipo di elaborazione, perché combina eventi frequenti, variabili numerose e tempi estremamente compressi.

In questo contesto, parlare di numeri in tempo reale significa entrare nel cuore di un processo tecnologico che va ben oltre il risultato finale di una partita. È un tema che riguarda modelli matematici, infrastrutture software e capacità di adattamento istantaneo ai cambiamenti.

Il basket come ambiente ideale per i modelli dinamici

Dal punto di vista tecnico, il basket offre un terreno di prova ideale per i modelli predittivi. Ogni possesso genera informazioni: tiri tentati, percentuali, falli, cambi di quintetto, ritmo della partita. A differenza di altri sport, questi eventi sono numerosi e ravvicinati, consentendo aggiornamenti frequenti delle previsioni.

Un sistema che elabora dati sul basket non lavora su scenari ipotetici, ma su una sequenza continua di input che modificano le condizioni iniziali. Basta una serie di canestri consecutivi o un infortunio improvviso per alterare radicalmente l’equilibrio previsto.

Questo rende il basket particolarmente interessante per chi studia sistemi adattivi, in grado di ricalcolare parametri senza interrompere il flusso.

Dal dato grezzo all’informazione utilizzabile

Il passaggio critico non è la raccolta del dato, ma la sua trasformazione in informazione. I sistemi predittivi devono filtrare il rumore, pesare le variabili e aggiornare le stime in tempi compatibili con l’evento in corso. Questo implica una catena tecnologica fatta di acquisizione, normalizzazione, calcolo e distribuzione.

Ogni anello della catena introduce un potenziale punto di latenza. Ridurla significa ottimizzare algoritmi, infrastrutture di rete e capacità di calcolo. Nei contesti più avanzati, l’elaborazione avviene in parallelo, sfruttando architetture distribuite e sistemi di caching per evitare colli di bottiglia.

Il risultato è un output che appare “semplice” all’utente finale, ma che in realtà è il prodotto di una complessità elevata.

Quote come output di un sistema complesso

Uno degli output più visibili di questi processi è rappresentato dalle quote basket, che sintetizzano in un singolo valore una quantità significativa di informazioni. Dietro una quota non c’è una previsione statica, ma un sistema che reagisce continuamente agli eventi in corso e alle variazioni di contesto.

Dal punto di vista tecnico, la quota è una funzione che incorpora probabilità aggiornate, margini di sicurezza e correzioni in tempo reale. La sua variazione racconta più di quanto sembri: segnala cambiamenti di ritmo, squilibri emergenti, trend che si consolidano o si interrompono.

L’accesso a queste informazioni avviene attraverso piattaforme che devono garantire aggiornamenti costanti e affidabili che consentano di osservare concretamente come un sistema predittivo traduca il flusso di dati in valori aggiornati, offrendo un esempio pratico di applicazione di modelli dinamici.

Qui l’interesse non è l’uso finale, ma il meccanismo tecnologico che rende possibile l’aggiornamento continuo.

Latenza, affidabilità e fiducia nel sistema

In un sistema predittivo, pochi secondi fanno la differenza. La latenza non è solo un problema tecnico, ma un fattore che incide sull’affidabilità complessiva del modello. Un dato aggiornato in ritardo perde parte del suo valore informativo, soprattutto in un contesto rapido come il basket.

Per questo motivo, le piattaforme che lavorano su dati in tempo reale investono in infrastrutture ridondanti e sistemi di monitoraggio costante. L’obiettivo è mantenere coerenza tra ciò che accade sul campo e ciò che viene rappresentato digitalmente.

Dal punto di vista dell’utente esperto, la fiducia nel sistema nasce proprio da questa coerenza. Quando numeri e realtà divergono, il modello perde credibilità.

Predizione come processo continuo

Un errore comune è considerare la predizione come un atto puntuale. In realtà, nei sistemi moderni è un processo continuo. Ogni previsione è valida solo fino al prossimo evento rilevante. Questo richiede un’architettura flessibile, capace di ricalcolare senza interrompere il servizio.

Nel basket, questa dinamica è particolarmente evidente: una partita non segue un andamento lineare, ma è fatta di accelerazioni, pause, inversioni improvvise. I sistemi predittivi devono essere progettati per gestire questa instabilità strutturale.

Oltre lo sport, una logica applicabile

Sebbene il basket rappresenti un caso di studio efficace, le logiche alla base dei sistemi predittivi in tempo reale trovano applicazione in molti altri ambiti: mercati finanziari, gestione del traffico, monitoraggio energetico. Lo sport diventa così un laboratorio osservabile di dinamiche che altrove restano più opache.

Analizzare come funzionano questi sistemi attraverso esempi concreti aiuta a comprendere meglio una delle sfide centrali dell’informatica moderna: trasformare flussi instabili di dati in informazioni affidabili, senza fermare il mondo mentre i calcoli vengono aggiornati.

Ed è proprio in questa capacità di adattamento continuo che si misura l’evoluzione dei sistemi digitali contemporanei.

 

Continua a Leggere

Articoli

Cracker, l’altra faccia dell’hacking

“Hacker”. Dietro questa parola si nasconde un mondo fatto di innovazione, sicurezza e passione per la tecnologia. La vera minaccia sono i cracker. Ma ci sono ancora dubbi…

Pubblicato

il

Ogni volta che un attacco informatico fa notizia, i titoli dei giornali riportano frasi allarmanti come “hacker che rubano dati” o “hacker che attaccano aziende e governi”. L’immaginario collettivo, plasmato da anni di film, serie TV
e narrazioni mediatiche, associa la figura dell’hacker a un individuo incappucciato, nascosto nell’ombra, intento a digitare frenetici codici su uno schermo pieno di numeri verdi in stile Matrix. Questa rappresentazione, sebbene affascinante, è una semplificazione fuorviante che non riflette la realtà. Gli hacker non sono tutti criminali informatici e, anzi, molti di loro lavorano per proteggere i nostri dati e migliorare la sicurezza digitale.

QUELLI CATTIVI

Un hacker è, prima di tutto, una persona curiosa e appassionata di tecnologia. Il suo obiettivo non è distruggere, danneggiare, bensì comprendere come funzionano i sistemi e spingerli al limite per migliorarne le prestazioni e la sicurezza. Gli hacker sono spesso esperti di informatica, crittografi a e sicurezza digitale, e il loro contributo è essenziale per il progresso tecnologico. Molti di loro lavorano per aziende, organizzazioni governative e istituzioni accademiche, con il compito di individuare falle nei sistemi prima che possano essere sfruttate da veri criminali informatici. Questi professionisti sono noti come “hacker etici” o “white hat”, specialisti di cybersecurity che mettono alla prova infrastrutture digitali per rafforzarne la protezione. Senza gli hacker, Internet sarebbe un ambiente più pericoloso. Sono loro a sviluppare protocolli di sicurezza, migliorare la crittografi a delle comunicazioni e creare difese contro virus e attacchi informatici. Grazie al loro lavoro, le transazioni online, i dati personali e le info sensibili possono essere protette da intrusioni indesiderate. Se oggi possiamo affidarci a connessioni sicure per operazioni bancarie, acquisti online e comunicazioni private, è in gran parte merito del loro impegno.

 

NEL WEB

Se gli hacker sono figure tecnicamente preparate che usano le loro competenze per il bene comune, chi sono allora i veri criminali informatici? La risposta è chiara: i cracker. I cracker, a differenza degli hacker, violano sistemi informatici per scopi malevoli. Il loro obiettivo non è la conoscenza, ma il profitto, la vendetta o il puro vandalismo. Alcuni rubano dati personali per venderli nel dark web, altri diffondono malware per infettare computer e reti aziendali, altri ancora utilizzano tecniche come il ransomware, criptando file e chiedendo un riscatto per ripristinarli.
Queste attività, purtroppo, causano danni enormi a privati, aziende e istituzioni pubbliche. Milioni di euro vengono persi ogni anno a causa di attacchi informatici, e il cybercrimine rappresenta oggi una delle minacce più gravi per l’economia globale. La distinzione tra hacker e cracker è dunque cruciale: gli hacker esplorano e proteggono, i cracker distruggono e sfruttano. Tuttavia, nei media questa differenza si è persa, e il termine “hacker” viene spesso usato in modo improprio per indicare chiunque compia reati informatici.

DAL CYBERCRIMINE ALL’HACKTIVISMO

Non tutti gli hacker, però, rientrano nella categoria dei “white hat” o dei criminali informatici. Esiste anche un’altra categoria: gli hacktivisti, cioè coloro che usano le proprie competenze per scopi politici o sociali. Gli hacktivisti si muovono in una zona grigia dell’etica digitale. Non attaccano i sistemi per denaro, ma per diff ondere informazioni censurate, svelare scandali politici o combattere regimi oppressivi. Il gruppo Anonymous è uno degli esempi più noti: negli anni, hanno rivelato documenti riservati, smascherato corruzione e difeso la libertà di espressione. Alcuni li considerano eroi digitali, altri semplici criminali informatici. Indipendentemente dalle opinioni, il loro impatto sulla
società è innegabile.

 

DISTINZIONI NECESSARIE

Continuare a confondere hacker e cracker non è solo un errore linguistico, ma una distorsione che danneggia chi lavora nel settore della sicurezza informatica. Definire un esperto di cybersecurity un “criminale” significa alimentare un pregiudizio ingiusto e ignorare il valore del loro lavoro. Le aziende, i governi e gli utenti comuni devono comprendere questa distinzione per poter navigare nel mondo digitale con maggiore consapevolezza. La prossima volta che sentirete parlare di un attacco informatico, ponetevi una domanda: è stato un hacker o un cracker?

 

 

Leggi anche: “I gadget preferiti dagli hacker

Continua a Leggere

Articoli

Il phishing che imita i grandi brand

Non solo virus: oggi la minaccia più comune passa da login falsi e pagine identiche a quelle originali

Pubblicato

il

Il phishing continua a essere una delle minacce informatiche più diffuse e pericolose. Non servono virus sofisticati o attacchi degni di un film: spesso basta una finta pagina di login o un’e-mail ben scritta per convincere una persona a consegnare volontariamente le proprie password. È quanto emerge dal nuovo report di Check Point Research sulle tendenze del brand phishing nel quarto trimestre del 2025. Ma che cos’è il brand phishing? In parole semplici, è una truffa online in cui i criminali informatici si fingono aziende famose e affidabili – come Microsoft, Google o Amazon – per ingannare le vittime. L’utente crede di essere sul sito “giusto”, inserisce le proprie credenziali e, senza accorgersene, le consegna agli attaccanti.

I marchi presi di mira

Secondo il report, Microsoft è ancora una volta il marchio più imitato, coinvolto nel 22% di tutti i tentativi di phishing legati ai brand. Seguono Google (13%) e Amazon (9%), spinta soprattutto dal periodo di Black Friday e acquisti natalizi. Torna nella top 10 anche Facebook, segno che gli account social restano un obiettivo molto appetibile per i criminali.

Il motivo è semplice: le credenziali valgono oro. Una password Microsoft o Google, ad esempio, può aprire la porta alla posta elettronica, ai documenti salvati nel cloud, alle chat di lavoro e perfino ad altri servizi collegati. È un po’ come consegnare le chiavi di casa insieme a quelle dell’ufficio. Il settore più colpito resta quello tecnologico, seguito dai social network e dai servizi finanziari. I cybercriminali sanno che fingendosi piattaforme molto usate aumentano le probabilità di successo: più un servizio è familiare, meno l’utente tende a sospettare.

Il report racconta anche alcuni casi concreti. Uno dei più insidiosi riguarda Roblox, piattaforma amatissima dai più giovani. Gli attaccanti hanno creato un sito con un indirizzo quasi identico a quello originale (cambiando una sola lettera) e un gioco falso dall’aspetto realistico. Cliccando su “Gioca”, i bambini venivano portati a una pagina di login identica a quella ufficiale, dove le credenziali venivano rubate senza alcun segnale evidente.

Pagina fraudolenta del gioco Roblox

Pagina di accesso fraudolenta a Roblox

Un altro esempio è Netflix: una finta pagina di “recupero account” chiedeva e-mail e password, sfruttando la paura di perdere l’accesso al proprio abbonamento. Stessa tecnica anche per Facebook, con pagine tradotte in lingua locale per sembrare ancora più credibili.

Pagina fraudolenta di Netflix

 

Pagina Facebook (Meta) fraudolenta

 

La forza del phishing sta proprio qui: grafica curata, indirizzi Web simili a quelli reali e messaggi che fanno leva su urgenza, paura o curiosità. Per difendersi non servono competenze tecniche avanzate, ma attenzione: controllare sempre l’indirizzo del sito, diffidare di link ricevuti via e-mail o messaggio e, soprattutto, non inserire mai le proprie password partendo da un link. Un piccolo gesto che può evitare grandi problemi.

Leggi anche: “L’IA attira sempre più i piccoli

*Illustrazione progettata da Checkpoint

Continua a Leggere

Trending