I ricercatori di CyberArk, società multinazionale di sicurezza informatica presente in ben 16 Paesi, hanno dimostrato come sia possibile utilizzare l’ormai notissimo servizio di intelligenza artificiale, ChatGPT, per creare dei veri e propri malware in grado di evadere le difese più comuni e le soluzioni base proposte dalle aziende di cybersicurezza. In pratica, hanno pubblicato sul blog dell’azienda un lungo articolo in cui spiegano come aggirare con facilità i filtri dell’IA per “costringerla” a generare del codice malevolo. Gli stessi hanno poi sottolineato come ChatGPT abbia sì politiche rigorose sui contenuti e filtri impostati per impedire, appunto, la creazione di codice malevolo ma, allo stesso tempo, hanno dimostrato come tali “barriere” possano essere facilmente aggirate utilizzando un “tono di comando”. In sostanza, scrivendo una richiesta e usando semplicemente l’imperativo. Infine, hanno precisato che è anche possibile utilizzare il servizio per mutare quanto generato e creare diverse versioni dello stesso codice, rendendo, di fatto, inefficaci i sistemi di protezione.
Kaspersky ha sviluppato una propria infrastruttura thin client basata su KasperskyOS per garantire una connessione…
Un semplice ritardo di 600 ms ha portato alla scoperta di una delle più pericolose…
Sono tante. Troppe. E ricordarle tutte e praticamente impossibile. Ecco perché sono nati i password…
Microsoft ha presentato Copilot for Security, un “robocop” per chi si occupa di sicurezza
Ecco ProPositive, il dispositivo antiaggressione indossabile dotato di due livelli di sicurezza
Gli hacker scoprono un nuovo metodo per distribuire il trojan di accesso remoto (RAT) Remcos,…
Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!
CLICCA QUI PER ABBONARTI!