Una vulnerabilità scoperta da Check Point Research ha riacceso l’attenzione sulla sicurezza degli strumenti di intelligenza artificiale come ChatGPT. Il problema, oggi risolto, permetteva a un attaccante di sottrarre dati sensibili dalle conversazioni degli utenti senza alcun avviso visibile. In pratica, mentre l’utente continuava a usare normalmente l’assistente, alcune informazioni potevano essere inviate all’esterno all’insaputa di chi le aveva condivise.
Per capire la gravità, basta pensare a come viene usata oggi l’IA: c’è chi carica referti medici, chi analizza contratti o documenti aziendali, dando per scontato che tutto resti confinato nella piattaforma. La falla sfruttava un meccanismo poco noto ma fondamentale di Internet: il DNS, cioè il sistema che traduce i nomi dei siti (come “google.com”) nei rispettivi indirizzi numerici. Normalmente è innocuo, ma in questo caso è stato usato come “canale nascosto” per trasmettere dati, un po’ come inviare messaggi segreti dentro richieste apparentemente innocenti.

Screenshot che mostra un tentativo di connessione Internet in uscita bloccato dall’interno
L’aspetto più insidioso è che le protezioni esistenti non sono state violate direttamente, ma aggirate. ChatGPT, infatti, limita le connessioni verso l’esterno e richiede autorizzazioni esplicite per condividere dati. Tuttavia, poiché il traffico DNS non veniva considerato una vera “uscita di dati”, non scattavano né avvisi né richieste di consenso.
L’attacco poteva partire da un semplice prompt, cioè un’istruzione incollata nella chat. Un esempio concreto: un utente copia un comando trovato online per migliorare la produttività. In realtà, quel testo potrebbe contenere istruzioni nascoste che inducono il sistema a estrarre e inviare all’esterno informazioni rilevanti, come riassunti o dati chiave. Paradossalmente, questi contenuti elaborati dall’IA possono essere ancora più sensibili degli originali.
Il rischio aumenta con i GPT personalizzati, sempre più diffusi. In questo caso, il codice malevolo potrebbe essere già integrato nel sistema, senza bisogno che l’utente faccia nulla di sospetto. I ricercatori hanno dimostrato lo scenario con un finto assistente medico: mentre forniva consigli apparentemente normali, inviava a un server esterno i dati del paziente.

ChatGPT nega il trasferimento di dati verso l’esterno, mentre il server remoto riceve i dati estratti.
Oltre alla fuga di dati, la tecnica potrebbe essere usata anche per eseguire comandi da remoto, trasformando l’ambiente in una sorta di “porta nascosta” controllabile dall’esterno. Un rischio che non riguarda solo la privacy, ma l’intera sicurezza della piattaforma.
La vulnerabilità è stata corretta da OpenAI già a febbraio 2026 e non risultano attacchi attivi. Tuttavia, il caso evidenzia un punto chiave: gli strumenti di IA non possono essere considerati sicuri per definizione. Come già avvenuto per il cloud, anche qui è necessario adottare controlli aggiuntivi e un approccio a più livelli.
Leggi anche: “Scoperta vulnerabilità in ChatGPT“