Smart speaker, così come altri dispositivi dotati di microfono, sono prodotti a rischio: un team di ricercatori delle università del Texas e del Colorado ha difatti dimostrato come sia possibile inviare comandi vocali sfruttando frequenze non udibili dagli esseri umani, ma captati dai loro microfoni. L’attacco, chiamato NUIT (Near-Ultrasound Inaudible Trojan) funziona con tutti i principali assistenti digitali, ovvero Amazon Alexa, Google Assistant, Apple Siri e Microsoft Cortana: basta un audio con frequenza compresa tra 16 e 20 kHz (ad esempio durante la riproduzione di un video da YouTube o altra piattaforma) per far eseguire dei comandi all’assistente digitale senza che l’utente se ne accorga, e questo potrebbe essere un grosso problema se l’assistente è collegato al sistema di allarme o a meccanismi di apertura di porte o finestre (potete trovare su YouTube un video esplicativo su questa tipologia di attacco). I ricercatori descrivono così sul loro sito il lavoro condotto: “NUIT è un nuovo attacco impercettibile contro gli assistenti vocali (Siri, Google Assistant, Alexa, Cortana) che può essere condotto da remoto tramite Internet”. Purtroppo al momento, a parte Siri, nessun altro assistente può limitare l’esecuzione dei comandi su una voce specifica.
Kaspersky ha sviluppato una propria infrastruttura thin client basata su KasperskyOS per garantire una connessione…
Un semplice ritardo di 600 ms ha portato alla scoperta di una delle più pericolose…
Sono tante. Troppe. E ricordarle tutte e praticamente impossibile. Ecco perché sono nati i password…
Microsoft ha presentato Copilot for Security, un “robocop” per chi si occupa di sicurezza
Ecco ProPositive, il dispositivo antiaggressione indossabile dotato di due livelli di sicurezza
Gli hacker scoprono un nuovo metodo per distribuire il trojan di accesso remoto (RAT) Remcos,…
Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!
CLICCA QUI PER ABBONARTI!