Articoli
Rilasciata SKUDONET v7.1.0
Nuove funzionalità e miglioramenti per supporto hardware, gestione della CPU e della memoria, prestazioni di rete e sicurezza per la Community Edition
SKUDONET è una soluzione Open Source per il bilanciamento del carico e l’Application Delivery Control (ADC), progettata per ottimizzare la gestione del traffico e migliorare la sicurezza delle applicazioni Web e dell’infrastruttura IT. Offre una gamma di soluzioni di bilanciamento del carico che soddisfano diverse esigenze, tra cui opzioni virtuali, baremetal, hardware e basate su cloud. Garantiscono una distribuzione efficiente del traffico, migliorano le prestazioni delle applicazioni e mantengono un’elevata disponibilità. Inoltre, SKUDONET include solide funzionalità di cybersecurity come la protezione DDoS, i firewall per applicazioni Web e l’ispezione SSL/TLS. La piattaforma offre edizioni community ed enterprise. La prima è gratuita e adatta agli ambienti di test e sviluppo, mentre la seconda è progettata per la produzione su larga scala con funzionalità avanzate e capacità di automazione.

La gestione dei servizi locali e remoti permette di abilitare SNMP, configurare server DNS primari e secondari, impostare server NTP e gestire i certificati SSL tramite Let’s Encrypt
Una nuova uscita con tanti miglioramenti
SKUDONET ha lanciato la sua Community Edition 7.1.0, un aggiornamento significativo basato su Debian 12 con Kernel 6.1.90 LTS. Questa versione introduce un supporto hardware potenziato, una migliore gestione della CPU e della memoria e prestazioni di rete superiori, oltre a rafforzare le funzioni di sicurezza. L’introduzione del DHCP per NIC e VLAN semplifica la gestione della rete, mentre il supporto di Fully Qualified Domain Names (FQDN)
come IP di backend nelle farm HTTP aumenta la flessibilità. L’aggiunta della direttiva TLSv1.3 si allinea ai più recenti protocolli di sicurezza, garantendo una maggiore protezione delle comunicazioni criptate. I miglioramenti dei log e le librerie SSL aggiornate potenziano il monitoraggio e la sicurezza del sistema, offrendone una migliore comprensione e una protezione più solida. La release include anche profili reverse proxy più flessibili, che consentono configurazioni più personalizzate per adattarsi a diversi ambienti di rete. Le correzioni di bug di questa
versione garantiscono un funzionamento efficiente del software, riducendo al minimo i tempi di inattività e migliorando le prestazioni complessive. Per ulteriori informazioni sulle novità dell’ultima release, visitate questo sito.
leggi anche: “Debian 12 bookworm è qui!”
Articoli
Dentro i casinò online: crittografia, sicurezza e superfici di attacco
L’ecosistema dei casinò online è uno dei campi in cui tecnologia, regolamentazione e sicurezza informatica si intrecciano in modo più evidente. Dietro un’interfaccia fatta di slot, tavoli live e bonus, esistono architetture distribuite, algoritmi crittografici, sistemi antifrode e software di monitoraggio costante. È un settore dove gli errori si pagano caro: un bug può tradursi in perdite economiche, violazioni di dati sensibili o manipolazioni dei risultati.
Gli stessi strumenti usati dagli hacker malintenzionati sono impiegati anche da security researcher e penetration tester per individuare vulnerabilità prima che vengano sfruttate. Per chi si interessa di cultura hacker, i casinò online rappresentano un laboratorio ideale per studiare il rapporto tra superfici di attacco, difese tecniche e comportamenti degli utenti.
Architettura e logica di un casinò online
Un casinò online moderno non è un singolo software, ma un insieme di microservizi che dialogano tra loro. In genere si possono distinguere almeno tre livelli logici:
- il front end, dove l’utente interagisce tramite browser o app, visualizza i giochi, gestisce il conto, effettua depositi e prelievi
- un layer applicativo che gestisce sessioni, autorizzazioni, regole di gioco, limiti di puntata, bonus, verifica dei documenti, log delle operazioni
- un back end che include database, sistemi di pagamento, infrastrutture per il monitoraggio antifrode, moduli di reportistica verso le autorità regolatorie.
I giochi più critici sono quelli basati su Random Number Generator (RNG). Il generatore di numeri casuali deve essere progettato e testato in modo da non essere prevedibile, né manipolabile. In molti casi il codice non risiede direttamente sui server del casinò, ma su piattaforme di provider terzi certificati, collegati via API.
A questo si aggiungono le integrazioni con i sistemi di pagamento: carte di credito, portafogli digitali, bonifici istantanei, talvolta criptovalute. Ogni integrazione è un possibile punto di ingresso per attacchi di tipo man in the middle, credential stuffing o abuso di API.
Superfici di attacco e minacce più diffuse
Per chi osserva il settore con occhio “hacker”, le superfici di attacco principali sono almeno tre: il lato client, il traffico di rete e il back end applicativo.
Sul lato client, gli attacchi possono sfruttare dispositivi compromessi, estensioni malevole, furto di cookie di sessione, keylogger o malware dedicati al credential theft. Anche la classica phishing page che replica l’area di login del casinò resta una delle tecniche più usate.
Sul traffico di rete, nonostante l’uso esteso di TLS, vulnerabilità di configurazione possono aprire la porta a downgrade attack o a intercettazioni mirate. Un altro bersaglio è la gestione delle API che collegano front end, giochi e sistemi di pagamento: rate limit insufficienti, mancata validazione degli input, token di accesso troppo permissivi sono errori che un attaccante esperto può sfruttare.
Nel back end applicativo entrano in gioco problematiche classiche: SQL injection, access control broken, misconfigurazioni del cloud, errori nei meccanismi di logging e session management. In un contesto dove scorrono in tempo reale depositi, prelievi e bonus, una singola vulnerabilità di autorizzazione può consentire, per esempio, di aumentare il saldo di un conto o di forzare l’esito di alcune operazioni.
Crittografia, licenze e ruolo degli operatori autorizzati
La prima barriera difensiva di un casinò online serio è l’uso esteso di crittografia end to end, sia per proteggere il traffico che per cifrare i dati sensibili conservati a riposo. Password, documenti di identità, dati di pagamento non dovrebbero mai essere visibili in chiaro nemmeno agli amministratori di sistema.
Altro elemento fondamentale è il quadro regolatorio. In Italia, gli operatori di gioco a distanza che rispettano i requisiti tecnici e legali ottengono una licenza ADM, che impone standard specifici su log, conservazione dei dati, RNG certificati e sistemi di controllo. Nel contesto di un’analisi tecnologica, è interessante osservare come i casinò autorizzati investano in infrastrutture e audit periodici proprio per ridurre il rischio di vulnerabilità sfruttabili.
Un esempio è rappresentato da operatori come Netbet, che si inseriscono in un ecosistema sottoposto a controlli tecnici e di conformità da parte di autorità e laboratori indipendenti. Ciò non significa che siano immuni da problemi, ma che esiste un framework più chiaro di responsabilità, test e aggiornamenti, rispetto a piattaforme prive di licenza o con sede in giurisdizioni opache.
Per chi studia sicurezza, questo scenario offre un terreno interessante per confrontare architetture, politiche di gestione delle chiavi crittografiche, sistemi di monitoraggio delle frodi e procedure di incident response.
Strumenti e metodologie dei security researcher
Gli stessi strumenti usati per testare applicazioni web generiche trovano applicazione anche sulle piattaforme di gioco, con qualche attenzione in più al contesto normativo. I penetration tester che lavorano in modo etico devono muoversi entro i limiti del mandato e delle leggi sul gioco a distanza.
Tra gli strumenti più utilizzati rientrano:
- proxy di intercettazione per analizzare richieste e risposte HTTP, riscrivendo i parametri legati a sessioni di gioco, bonus, saldo del conto
- scanner per individuare vulnerabilità note nei componenti web e nei servizi esposti
- toolkit per il fuzzing delle API, con lo scopo di trovare input non gestiti correttamente
- piattaforme di monitoring e logging per rilevare pattern di frode, come account sharing, bot che sfruttano promozioni o tentativi di brute force sulle credenziali.
Una parte rilevante del lavoro riguarda la verifica della robustezza delle integrazioni con provider esterni: sistemi di pagamento, giochi live, wallet condivisi con altri servizi. Ogni collegamento può essere un vettore di attacco se non sono ben definiti i perimetri, le chiavi di accesso e le responsabilità in caso di incidente.
Buone pratiche per gli utenti e prospettive future
Anche se il focus di HackerJournal è spesso sulla parte tecnica e sull’analisi delle vulnerabilità, il comportamento degli utenti resta una variabile decisiva. Un’infrastruttura sicura può essere vanificata da una password riciclata o da un link di phishing aperto con leggerezza.
Per ridurre il rischio, l’utente esperto può seguire alcune regole pratiche:
- usare password uniche e robuste, gestite con un password manager open source o comunque affidabile
- attivare sempre l’autenticazione a più fattori, preferendo le app di autenticazione agli SMS
- verificare che il casinò sia dotato di licenza riconosciuta e che il dominio sia corretto, evitando link ricevuti via email o messaggistica
- controllare la configurazione del browser, limitando estensioni superflue che possono intercettare credenziali o sessioni
- monitorare periodicamente movimenti del conto di gioco e strumenti di pagamento collegati, per individuare anomalie in tempi rapidi
- giocare solo da reti di cui si conosce il livello di sicurezza, evitando Wi-Fi pubblici non cifrati o di dubbia provenienza
- mantenere aggiornati sistema operativo, browser e antivirus, riducendo la superficie di attacco lato client.
Guardando al futuro, è probabile che il settore dei casinò online veda una maggiore adozione di tecnologie di autenticazione avanzate, come il passkey login e sistemi basati su hardware token, insieme a un uso più esteso di algoritmi di machine learning per individuare comportamenti anomali. Per la community hacker e per chi segue la sicurezza informatica, questo significa avere di fronte un ecosistema in continua evoluzione, dove ogni innovazione introduce sia nuove difese che nuove potenziali vulnerabilità da studiare con attenzione.
Articoli
La minaccia nascosta nel PC
I cripto malware vengono usati dai cybercriminali per minare Bitcoin. Ti diciamo come scovarli e rimuoverli dal sistema
Negli ultimi mesi, numerosi lettori ci hanno scritto per raccontare le loro esperienze con un trojan che, senza clamore, si insinua nei sistemi Windows, sfruttandoli per minare criptovalute. Ecco perché abbiamo deciso di dedicare articolo al virus in questione, il quale porta un nome che tradisce la sua natura malevola… Altruistics.
COS’È ALTRUISTICS?
Altruistics, diff uso spesso in bundle insieme ad altri programmi con il nome di Atuct, Atructis, Aluc e Altst, è un malware della famiglia dei crypto miner, programmi che utilizzano la potenza di calcolo di un PC infetto per generare criptovalute. Una volta installato, si avvia silenziosamente e sfrutta la CPU del sistema per eseguire calcoli complessi, producendo guadagni per i cybercriminali. La sua strategia è subdola: limita l’uso della CPU al di sotto di una soglia critica per non destare sospetti e per evitare di far scattare misure di sicurezza automatiche. A differenza di altri miner più aggressivi, Altruistics è studiato per restare attivo il più a lungo possibile. Non provoca alcun surriscaldamento evidente del sistema, ne tantomeno causa un’attività anomala delle ventole bensì si nasconde tra i processi di sistema, rendendo difficile se non impossibile la sua individuazione.

Su Wikipedia si legge che “Altruistics aff erma di consentire agli utenti di donare i cicli di CPU inutilizzati a cause altruistiche”. Sarà vero?
COME RICONOSCERLO
Una volta installatosi, Altruistics crea una cartella nel sistema, solitamente sotto Program Files (x86), dove deposita i suoi file eseguibili e le librerie necessarie al suo funzionamento. Tra questi, il principale è Altruistics.exe, affiancato da una libreria dinamica che consente la sua esecuzione automatica e persistente. La capacità di auto-rigenerazione del malware gli permette di riavviarsi se un utente prova a terminarne il processo. Altruistics è progettato per nascondersi, ma alcuni segnali possono tradire la sua presenza. La maggior parte delle segnalazioni che abbiamo ricevuto descrive un lieve rallentamento del sistema, spesso intermittente e difficile da associare a una causa specifica. Alcuni utenti hanno notato un leggero ritardo nei movimenti del cursore o nei comandi, ma senza altri sintomi evidenti. Solo un’analisi più approfondita del Task Manager ha rivelato un consumo anomalo della CPU, solitamente intorno al 20%-50%, anche quando il computer era inattivo. Un altro elemento sospetto è la presenza di un servizio di sistema denominato Altruistics che non può essere arrestato manualmente. Anche tentando di chiudere il processo, il malware si riavvia automaticamente grazie a un servizio nascosto, rendendo inefficace la sua semplice terminazione. Questi comportamenti lo rendono particolarmente insidioso e resistente alle misure di sicurezza standard.

Per rimuovere Altruistics è necessario terminare il processo dal Task Manager ed eliminarne la cartella che il trojan riesce a generare
PERCHÉ È PERICOLOSO?
A prima vista, un malware che non ruba dati e non cripta file potrebbe sembrare poco pericoloso. Tuttavia, Altruistics comporta una serie di problemi che non possono essere sottovalutati. Il consumo costante di risorse riduce l’efficienza del PC, rendendo più lento il normale utilizzo del sistema e impattando negativamente su operazioni che richiedono elevata potenza di calcolo. L’uso prolungato della CPU può causare un aumento dei consumi elettrici. I sistemi desktop possono risentirne meno, ma per i PC portatili questo significa anche una drastica riduzione dell’autonomia della batteria. Inoltre, l’attività continua può accelerare l’usura dell’hardware, portando a un
deterioramento precoce del processore e di altri componenti. Infine, la presenza di Altruistics può indicare che il sistema è vulnerabile ad altre infezioni.
COME RIMUOVERLO?
Eliminare Altruistics non è semplice, poiché il malware è progettato per resistere alla rimozione. La procedura più efficace prevede di avviare il sistema in Modalità Provvisoria, impedendo così l’esecuzione automatica del trojan. Una volta entrati nel Task Manager, è necessario terminare il processo Altruistics.exe e localizzare la cartella in Program Files (x86) per eliminarne i contenuti. Il passo successivo è la rimozione del servizio associato, operazione che richiede l’uso del Prompt dei comandi con privilegi di amministratore.
Dopo aver eseguito una scansione completa con un antivirus aggiornato, è consigliabile utilizzare un software di pulizia del registro di sistema per eliminare eventuali tracce residue. Infine, un riavvio completo permetterà di verificare che il malware non si sia riattivato. La prevenzione è comunque il metodo più efficace per evitare infezioni da malware come Altruistics. Scaricare software esclusivamente da fonti affidabili riduce il rischio di installare pacchetti compromessi. Prestare attenzione alle opzioni di installazione, scegliendo sempre la modalità personalizzata, permette di individuare e deselezionare eventuali componenti indesiderati. Mantenere SO e software di sicurezza aggiornati aiuta a proteggere il PC da nuove varianti di malware. Monitorare i processi in esecuzione può aiutare a individuare anomalie prima che diventino un problema serio. Infine, un buon firewall può bloccare comunicazioni sospette, prevenendo l’eventuale download di malware da server remoti.
Leggi anche: “Aumentano gli attacchi a mobile backing e criptovalute“
Articoli
I gadget segreti degli hacker
La valigetta del pirata contiene dispositivi hi-tech piccoli, anonimi e potenti, facilmente acquistabili anche su Amazon. Ecco la nostra selezione anche per questo mese
OTADUG
L’ORA DELLA SPIA
L’orologio Otadug con telecamera nascosta combina perfettamente eleganza e funzionalità spia. Al suo interno è integrata una microcamera in grado di registrare video in Full HD 1080p a 30 fps, con audio chiaro da distanza ravvicinata. L’obiettivo è completamente occultato nel quadrante, rendendolo indistinguibile da un normale orologio da polso. È dotato di memoria interna (di solito da 16 o 32 GB), sufficiente per registrare ore di video senza necessità di supporti esterni. La ricarica e il trasferimento dei dati avvengono tramite cavo USB, in modalità plug-and-play.
L’autonomia della batteria consente circa 1,5–2 ore di registrazione continua. Il design sobrio e realistico lo rende ideale per situazioni in cui è richiesta discrezione, come colloqui, riunioni, o monitoraggio ambientale. L’attivazione è semplice e immediata grazie ai pulsanti integrati. Uno strumento perfetto per chi cerca sorveglianza nascosta in un oggetto di uso quotidiano.
Quanto costa: € 46
Dove acquistare: https://short.tips/url/orospia

AYWHP SCHEDA WI-FI
METTI LE ALI AL FLIPPER
La scheda di sviluppo AYWHP ESP32 S2 per Flipper Zero trasforma il tuo dispositivo in un potente hub Wi-Fi per test di penetrazione e progetti IoT. Integrata con un microcontroller ESP32 S2, supporta debug avanzati via USB e Wi-Fi, consente la creazione rapida di hotspot e moduli dati, e permette l’analisi dei pacchetti (PMKID, deauth, ecc.) grazie al firmware Blackmagic. È perfetta per espandere le capacità del Flipper Zero: collegandola alla porta GPIO, puoi fare debugging online, catturare traffico Wi-Fi, realizzare gateway per smart home o terminali IoT. Ideale per sviluppatori, pentester e appassionati, offre comunicazione multiprotocollo ad alte prestazioni. Insieme al Flipper Zero, diventa uno strumento completo per imparare i protocolli wireless, migliorare la sicurezza delle reti e sperimentare in modo creativo con i dati Wi-Fi.
Quanto costa: € 42
Dove acquistare: https://short.tips/url/wififlip

Leggi anche: “I gadget degli hacker“
Articoli
Il worm che infetta l’IA
Oggi invia e-mail di phishing ben confezionate. Domani potrebbe prendere il controllo delle auto. Cerchiamo di capirne di più
Il suo nome è Morris II ed è un nuovo particolare tipo di malware capace di propagarsi negli ecosistemi dell’Intelligenza Artificiale Generativa (GenAI), come un verme informatico tradizionale. A differenza dei virus che necessitano di un programma ospite per replicarsi, Morris II è autonomo e sfrutta vulnerabilità nei sistemi GenAI per diffondersi e compiere azioni dannose.
Mentre i malware di vecchia generazione, come ILOVEYOU o WannaCry, si diffondevano tramite e-mail o reti infettando file eseguibili, Morris II si basa su adversarial self-replicating prompts (che in italiano potremmo tradurre
come prompt dannosi autoreplicanti), ovvero istruzioni ingannevoli che vengono elaborate dai modelli GenAI. Come un cavallo di Troia, il prompt si nasconde all’interno di input all’apparenza innocui, come testi, immagini o audio, e induce il modello a replicarlo nell’output, diffondendolo ad altri sistemi. Due sono i metodi principali atti a “moltiplicare” il malware:
1- Propagazione basata su RAG: il verme infetta il database RAG (Retrieval Augmented Generation), una componente che fornisce informazioni contestuali ai modelli GenAI. Quando l’applicazione consulta il database RAG, il prompt dannoso viene recuperato e replicato, come un virus latente che si attiva all’apertura di un file infetto.
2 – Propagazione basata sul flusso dell’applicazione: in questi casi è l’attaccante che crea un input e, una volta elaborato dal modello GenAI, genera un output che “forza” l’applicazione a eseguire un’azione, per esempio l’invio di un messaggio o l’accesso a dati sensibili. Un metodo simile a un attacco di ingegneria sociale, in cui l’attaccante manipola l’utente per fargli compiere azioni dannose.
Immaginiamo per esempio, un’email con un’immagine che contiene un prompt dannoso autoreplicante. Il prompt forza il modello GenAI a classificare l’e-mail come “da inoltrare”, diffondendo il worm…
Il video che riassume il funzionamento di questo nuovo worm
QUALI RISCHI?
I pericoli sono concreti e possono essere inquadrati in tre differenti tipologie.
Propagazione rapida e autonoma
Sfruttando la connettività intrinseca dei sistemi GenAI, Morris II può diffondersi in modo esponenziale, come i worm di vecchia generazione che hanno infettato milioni di computer in poche ore.
Esecuzione di azioni dannose
Il worm può essere utilizzato per rubare dati, diffondere propaganda o interrompere servizi, con un impatto potenzialmente devastante.
Difficoltà di rilevamento
I prompt dannosi autoreplicanti si nascondono all’interno di input apparentemente innocui, rendendo difficile l’identificazione e il blocco del malware.
Le contromisure per proteggere i sistemi GenAI da Morris II includono la prevenzione della replicazione, modificando i modelli affinché riformulino l’output ed evitino la riproduzione esatta di codice malevolo. Inoltre, il blocco della propagazione viene attuato attraverso sistemi di monitoraggio avanzati, capaci di rilevare pattern sospetti e bloccare messaggi dannosi in tempo reale. Ulteriori strategie includono la sandboxing delle risposte, per isolare contenuti pericolosi prima della pubblicazione, e l’uso di blacklist dinamiche per filtrare richieste con payload malevoli noti. L’integrazione di controlli di sicurezza proattivi rafforza la resilienza dei sistemi GenAI, migliorandone la sicurezza e l’affidabilità.

Il worm informatico, progettato per attaccare applicazioni basate su GenAI, è stato testato dagli sviluppatori su assistenti e-mail dotati di GenAI in due scenari d’uso (invio di spam ed esfiltrazione di dati personali), con due modalità di accesso (black-box e white-box), utilizzando due tipi di input (testo e immagini) e contro tre diversi modelli GenAI (Gemini Pro, ChatGPT 4.0 e LLaVA). Il codice sorgente è disponibile su https://github.com/StavC/ComPromptMized.
COSA CI DOBBIAMO ASPETTARE?
La capacità di propagazione rapida e autonoma di Morris II, unita alla difficoltà di rilevamento, lo rende un avversario temibile. Come per i virus di vecchia generazione, la consapevolezza dei rischi e l’adozione di contromisure
appropriate sono fondamentali per mitigare la minaccia e garantire la sicurezza degli ecosistemi GenAI.
Dal paper che abbiamo analizzato, i ricercatori prevedono che i vermi GenAI diventeranno una minaccia concreta nei prossimi due o tre anni. Questa previsione si basa sulla crescente integrazione dei modelli GenAI in diversi settori, come automobili, smartphone e sistemi operativi. Man mano che gli ecosistemi GenAI si espanderanno, la superficie di attacco per questi temibili worm aumenterà a dismisura, offrendo loro più opportunità di propagazione. I worm GenAI potrebbero evolversi per eseguire una gamma più ampia di azioni dannose, andando oltre il “semplice” furto di dati e la diffusione di propaganda. Potrebbero essere utilizzati per prendere il controllo di sistemi critici, come reti elettriche o infrastrutture di trasporto, con conseguenze catastrofiche, incluse interruzioni su larga scala e danni economici potenzialmente ingenti. Inoltre, l’integrazione dei modelli GenAI in sistemi autonomi, come veicoli a
guida autonoma e robot industriali, apre la possibilità di attacchi che potrebbero mettere a rischio la sicurezza fisica delle persone, compromettendo il corretto funzionamento di dispositivi essenziali e aumentando il pericolo di incidenti o malfunzionamenti dannosi.
Articoli
Come ottenere una Bash facilissima
Fatevi aiutare dagli LLM a fare il vostro lavoro di sysadmin generando script Bash utili e sicuri per risparmiare tempo e denaro!
Scrivere un buon prompt per generare uno script Bash richiede precisione, consapevolezza dei rischi di sistema e conoscenza delle convenzioni Unix. La shell è uno strumento potenzialmente distruttivo, quindi il prompt deve guidare attentamente il modello, specialmente quando si lavora con file, permessi o comandi che incidono sul sistema. Rispetto ad altri prompt un aspetto è fondamentale: indicate sempre i limiti di sicurezza. La shell può eseguire comandi pericolosi (rm, mv, >, dd, ecc.), quindi includete sempre indicazioni come “Evita operazioni distruttive” e richiedete sempre conferme manuali o backup, quando possibile. Riducete inoltre le assunzioni implicite, ancora di più che per altri contesti. Specificate quindi l’ambiente previsto: è Linux? Se sì, quale distro? Quale versione di Bash? Quali comandi di base
sono disponibili (grep, awk, jq, ecc.)? Richiedete poi sempre commenti e controlli di sicurezza. Chiedete al modello di inserire commenti nel
codice e controlli ([[ -f ]] prima di eliminare file, per esempio).
Compatibilmente con le esigenze dello script, usate protezioni esplicite: richiedete l’inserimento della riga set -euo pipefail all’inizio dello script, per interrompere l’esecuzione in caso di errori o variabili non inizializzate. Naturalmente, e lo specifichiamo anche se dovrebbe essere consuetudine, verificate sempre prima di agire.
Non eliminate o sovrascrivete file senza controllare:
if [[ -f “$file” ]]; then
rm “$file”
fi
A meno che non ne abbiate assolutamente e categoricamente bisogno, evitate operazioni su / o ~: specificate che non devono essere usati percorsi assoluti pericolosi se non richiesto esplicitamente. Cercate di non usare mai rm -rf senza motivazione e conferma e, se proprio necessario, richiedete almeno un dry-run di prova.
I prompt più utili
Non metteremo LLM contro LLM qui perché da varie prove abbiamo visto che tutti si comportano bene. Invece vi diamo spunti per script molto utili per semplificare il lavoro del sysadmin o comunque dell’utente Linux:
“Scrivi uno script per archiviare e comprimere tutti i file più vecchi di 30 giorni in /var/log su Almalinux”.
“Crea uno script per monitorare un processo e riavviarlo se si blocca su Linux”.
“Scrivi uno script per controllare lo spazio su disco, per qualsiasi disco collegato, e inviare un avviso via email se l’utilizzo supera il 90%”. Qui opzionalmente potete aggiungere il sistema di invio che preferite.
“Crea uno script per eseguire il backup di un database PostgreSQL con nome del file con data e ora su Linux e salvarlo in /opt/backups”.
Questi sono solo alcuni degli esempi, molto brevi e concisi. Potete naturalmente pensare alle vostre specifiche esigenze e farne realizzare di appropriati. Con un po’ di disciplina e prove potete ricavare da qualsiasi buon modello, Mistral incluso che ha avuto qualche problemino nei nostri test, risultati che vi fanno risparmiare tempo e denaro.
Leggi anche: “IA: l’importanza del prompt“
Articoli
Immagini da favola con l’IA
Creare fotografie o illustrazioni con l’IA è ormai la norma ma come si produce un’immagine fedelissima ai vostri desideri?
Chiedere a un modello linguistico di grandi dimensioni di generare un testo è una cosa. Chiedergli di generare un’immagine è una sfida completamente diversa, sia più vincolante sia, paradossalmente, più aperta. Nella generazione di immagini, il prompt deve fare il lavoro di una telecamera, di un regista, di un tecnico delle luci,
di un costumista e talvolta anche di un concept artist. Ogni parola diventa una pennellata, ogni ambiguità un rischio di fraintendimento. E a differenza della generazione di testi, in cui un input vago può comunque produrre una prosa coerente, i suggerimenti visivi vaghi spesso producono immagini surreali, incoerenti o semplicemente noiose. Per
capire perché la richiesta di informazioni è così critica nella generazione di immagini, è utile sapere cosa succede sotto il cofano.
Come funziona il modello
Quando si inserisce una richiesta testuale in un modello di immagine AI – che si tratti di DALL-E, Midjourney o Stable
Diffusion – si innesca un processo che traduce il linguaggio in una rappresentazione visiva attraverso un modello addestrato su enormi serie di dati di coppie immagine-didascalia. Questi sistemi hanno imparato ad associare parole, frasi e spunti stilistici a specifici modelli visivi. Il modello costruisce quindi l’immagine in modo incrementale, spesso attraverso un processo di diffusione: partendo da un rumore e perfezionandolo gradualmente in un’immagine coerente che si allinea statisticamente con la richiesta. Grazie a questa architettura, la precisione della richiesta ha un impatto diretto sulla qualità, la chiarezza e la composizione dell’output. Non si tratta solo di ciò che si descrive, ma anche di come lo si fa. Una buona richiesta di immagine unisce specificità e struttura: nomina gli oggetti, definisce le
relazioni, imposta l’ambiente e, se necessario, evoca uno stato d’animo o uno stile artistico.
Un esempio pratico
Una richiesta come:
“un uomo in una foresta”
può produrre qualcosa di tecnicamente accurato ma visivamente insipido o generico. In contrasto con:
“Un escursionista solitario che indossa una giacca rossa si trova in mezzo a pini imponenti, la nebbia mattutina che si arriccia intorno ai suoi stivali, una luce morbida e dorata che filtra attraverso la chioma – un film, una profondità di campo ridotta”
Questa seconda versione fa diverse cose: stabilisce un soggetto centrale, aggiunge un contesto, specifica il colore e l’illuminazione, introduce l’atmosfera e suggerisce uno stile visivo. Le migliori pratiche per una presentazione efficace delle immagini iniziano con una descrizione gerarchica.
Ciò significa iniziare con il soggetto principale, quindi stratificare i dettagli in un ordine logico:
Cosa sta facendo il soggetto?
Dove si trova?
Qual è lo stato d’animo?
Che ora del giorno è?
C’è una tavolozza di colori, una composizione o uno stile specifico a cui si mira?
L’esplicitezza in questo caso è fondamentale. Dire “fotorealistico” rispetto a “pittura digitale” o “olio su tela” guida il modello di rendering verso librerie di texture e presupposti visivi diversi. Menzionare la terminologia della macchina fotografica come “obiettivo da 35 mm”, “bokeh” o “grandangolo” spesso produce composizioni più professionali, anche se il modello non comprende appieno l’ottica: ha imparato statisticamente il tipo di immagini a cui quei termini sono legati. È anche saggio fornire dei vincoli. Dire “minimalista” o “composizione simmetrica” può evitare il disordine visivo. Descrivere le condizioni di illuminazione – “controluce drammatico”, “ombre morbide” o “sole a
mezzogiorno” – può aiutare ad ancorare l’immagine a un ambiente specifico. È possibile anche creare uno stato d’animo utilizzando spunti emotivi come “malinconico”, “sereno” o “teso”, soprattutto per i modelli che si sono formati su fotografie d’arte o fotogrammi di film con didascalia. E ora vediamo come se la cavano gli LLM…
IL PROMPT DA UTILIZZARE CON GPT-4o – GROK – GEMINI – STABLE DIFFUSION
Per mettere alla prova i modelli LLM abbiamo scelto questo prompt, in questo caso in inglese per non introdurre
problemi di lingua: “A futuristic library at sunset, built inside a glass dome in the middle of a lush forest. The structure
is illuminated from within, with soft golden light glowing through the transparent panels. Inside, towering
bookshelves spiral upward around a central tree growing through the dome, its branches extending toward the ceiling. A person in minimalist white clothing sits cross-legged on a floating platform, reading a glowing book. Style:
ultra-detailed, photorealistic, cinematic lighting, wideangle shot, 35mm lens, shallow depth of field, ambient fog
outside, warm color palette”.
I RISULTATI:
GTP-4o: un buon compromesso
L’LLM di OpenAI si è comportato piuttosto bene. C’è la foresta, la pedana flottante dà l’idea del futuro, l’illuminazione è corretta e l’immagine è fotorealistica. La libreria però non è molto realistica nella sua geometria e soprattutto non è a spirale.

Grok: poco futuristico e non fedele
L’immagine di Grok ha due problemi principali. Il primo è che non è futuristica: non si vedono davvero elementi che facciano pensare al futuro. E, come per GPT-4o, la libreria non è a spirale, oltre ad avere una geometria pessima.

Gemini: risultato perfetto
Cosa dire dell’immagine creata dall’LLM di Google? Praticamente nulla: futuristica, ben illuminata, fotorealistica e soprattutto con una libreria a spirale esattamente come avevamo chiesto. Persino il contrasto è ineccepibile. Ottimo lavoro!

Stable Diffusion: bella, ma…
Questo modello dà il meglio quando riceve parametri aggiuntivi specifici, quindi sapevamo che avrebbe avuto problemi. L’immagine è tecnicamente bella ma mancano quasi tutti i parametri essenziali richiesti dal nostro prompt.

EVITARE GLI ERRORI COMUNI GENERANDO IMMAGINI
In questo articolo avete visto come creare il prompt perfetto per creare immagini; ma è importante
anche sapere cosa NON fare! Ecco le cose da evitare quando si generano immagini… Anzitutto evitate di essere
troppo vaghi. Prompt come “un bel paesaggio” o “una città futuristica” possono sembrare stimolanti, ma producono risultati piatti o cliché. Bellezza e futurismo hanno significati radicalmente diversi a seconda del contesto visivo e il modello si orienterà verso le interpretazioni statisticamente più comuni. Non mettete poi troppe idee insieme.
Cercare di accatastare più elementi non correlati (“un gatto, un’astronave e una sala da ballo vittoriana”) in un
unico prompt di solito porta a una confusione visiva, a meno che non si definiscano attentamente le relazioni
e la gerarchia. In caso contrario, il modello può confondere o oscurare gli elementi in modi poco utili. Inoltre,
frasi come “la sensazione del tempo che rallenta” o “un momento di tensione sospesa” possono essere
significative nella scrittura umana, ma sono troppo vaghe per i modelli di immagini senza ulteriori ancore
visive. Abbinate sempre concetti astratti a immagini concrete. Inoltre non ignorate mai le indicazioni di
composizione e stile. Se non si specifica l’inquadratura (per esempio, “orientamento ritratto”, “primo piano”, “grandangolo”) o lo stile (“illustrazione cyberpunk”, “pittura a olio del XIX secolo”), il modello è libero di tirare a indovinare, spesso con risultati incoerenti o non voluti. Infine, come per altri temi, inondare l’input di parole chiave nella speranza di “massimizzare” il risultato può in realtà essere controproducente. La ridondanza può confondere il
modello o far sembrare il risultato “sintetico” e troppo processato.
Leggi anche: “Il prompt che attacca l’IA“
Articoli
IA: l’importanza del prompt
Perché è importante fare le domande giuste e come funziona la procedura di domanda e risposta negli LLM?
Ogni interazione con un modello linguistico di grandi dimensioni inizia con un prompt. È l’istruzione, il suggerimento, l’input che dice al modello cosa si vuole e come lo si vuole. Sebbene possa sembrare una semplice richiesta in un linguaggio semplice, un prompt ben fatto è tutt’altro che banale. È la differenza tra una risposta vaga e una precisa, tra un output generico e una soluzione su misura.
Un prompt non si limita ad attivare il modello, ma lo guida, definisce i confini della risposta e stabilisce il tono e il contesto. Man mano che questi sistemi diventano più avanzati, in grado di gestire compiti molto complessi, l’onere della chiarezza si sposta sempre più sull’utente.
Non basta sapere cosa si vuole, bisogna esprimerlo in modo che il modello lo capisca senza ambiguità. Un prompt non è solo una domanda, ma una specifica. Può definire la struttura, il tono, il formato, la prospettiva e persino l’intento. Lo stesso modello può generare un riassunto esecutivo, un tweet sarcastico, un’email formale o una storia della buonanotte, con le giuste istruzioni. La sfida sta nel trovare la frase esatta che sblocca il comportamento desiderato. Il modello deve sapere quale voce usare, cosa tralasciare e a chi sta parlando. In sostanza, il prompt engineering non consiste solo nel porre domande, ma anche nel progettare interazioni.

Servizi come ChatGPT o Claude danno accesso ai loro LLM tramite API. Attenzione però a un aspetto importante: le risposte che arrivano dall’API sono un po’ diverse da quelle della chat, in parte perché quest’ultima ha accesso al Web
Come funziona tecnicamente
Quando un Large Language Model (LLM) riceve un prompt, entra in azione un processo complesso ma ben definito che trasforma il testo d’ingresso in una risposta coerente e pertinente, che parte con la tokenizzazione del prompt. I modelli non ragionano, infatti, direttamente sulle parole o sulle lettere, ma su token, che sono unità linguistiche minime (possono essere una parola intera, una parte di parola, o anche solo una lettera nei casi più complessi).
I token vengono poi inviati nel cuore del modello: una rete neurale transformer. Qui, ogni token passa attraverso strati composti da meccanismi chiamati self-attention e feedforward. Questi permettono al modello di capire il contesto globale (cioè ogni parola rispetto alle altre), assegnare pesi e priorità semantiche a parole chiave e memorizzare informazioni rilevanti tramite i cosiddetti embedding vettoriali. Il transformer, strato dopo strato,
costruisce una rappresentazione interna del prompt, cercando di “capire” cosa l’utente sta chiedendo. Una volta compreso il prompt, il modello procede, token per token, a generare la risposta. A ogni passaggio, il modello analizza i token già generati (il contesto), calcola una distribuzione di probabilità su tutti quelli possibili e sceglie il token successivo in base a questa distribuzione. Questo processo si ripete iterativamente, finché non si raggiunge un token di fine sequenza (<end>) o un limite massimo di lunghezza. Una volta generati tutti i token della risposta, questi vengono decodificati (cioè trasformati da ID numerici in testo leggibile) dal tokenizer inverso. Per esempio,
i token [4213, 128, 603, 2] potrebbero essere ricostruiti come “Certo, ecco una email”. In ambienti come ChatGPT o l’API di Claude, dopo la generazione, la risposta può passare attraverso filtri di sicurezza (per rimuovere contenuti offensivi o pericolosi), troncamenti o formattazioni e postelaborazioni in base all’applicazione (per esempio,
strutturare il testo in HTML).
Leggi anche: “Il ransomware che usa modelli LLM“
-
News4 anni faHacker Journal 286
-
News8 anni faAbbonati ad Hacker Journal!
-
Articoli3 anni faParrot Security OS: Linux all’italiana- La distro superblindata
-
Articoli5 anni faGuida: Come accedere al Dark Web in modo Anonimo
-
Articoli8 anni faSuperare i firewall
-
News6 anni faLe migliori Hacker Girl di tutto il mondo
-
News8 anni faAccademia Hacker Journal
-
News8 anni faIscriviti al Forum di Hacker Journal

