Le allucinazioni delle intelligenze artificiali stanno diventando un problema familiare per molti utenti di ChatGPT, Bard e di tutti gli altri modelli di chatbot che vengono utilizzati quotidianamente da milioni di persone. Fino a ieri considerate un problema solo per addetti ai lavori, le allucinazioni non sono in realtà l’unico “inciampo” nel quale può cadere un modello di intelligenza artificiale discorsiva addestrato con una grande quantità di testi.
I chatbot possono, infatti, fare tutta una serie molto ampia di errori, dalla classificazione di un problema alla regressione, passando per la rilevanza sino alla estrazione del testo, la sua sintesi e il suo riconoscimento. Si tratta di errori comuni anche con altri tipologie di software. Con le intelligenze artificiali, però, è possibile anche un altro livello di errore.
Accade quando il chatbot ha quello che gli informatici chiamano “una allucinazione” (dal latino, vuol dire «parlare vanamente», «farneticare», «sognare»), cioè genera dei risultati di fantasia che possono sembrare plausibili, ma che sono di fatto errati ovvero non correlati al contesto dato. Questi risultati spesso emergono dai pregiudizi intrinseci del modello di intelligenza artificiale (sono state create delle relazioni arbitrarie o inesatte durante il suo addestramento, proprio come i nostri pregiudizi), dalla mancanza di comprensione del mondo reale (la domanda non viene capita perché non ci sono dati per metterla in relazione con una rappresentazione del mondo) o dalle limitazioni dei dati di addestramento (semplicemente, il chatbot non sa la risposta, ma se la inventa).
In altre parole, il sistema di intelligenza artificiale “allucina” informazioni su cui non è stato esplicitamente addestrato, portando a risposte inaffidabili o fuorvianti. Questo accade molto più spesso di quanto non si creda (le percentuali esatte dipendono dal singolo modello di intelligenza artificiale e dal suo particolare addestramento) e dal tipo di domanda che viene posta. Il modo nel quale si architetta il cosiddetto “prompt” (la richiesta effettuata al chatbot o al modello di intelligenza artificiale in generale) è quello che introduce il primo errore. Ma spesso questo non dipende dalla domanda, e viene generato autonomamente dal chatbot. Alle volte è facilmente comprensibile che c’è un errore (“Milano è più vicina a New York di Boston”). Altre volte è molto più subdola o impossibile da individuare.
I contraccolpi possono essere molto gravi. Innanzitutto perché i chatbot sono una tecnologia nuovissima per il grande pubblico e la produzione di informazioni errate o fuorvianti possono portare a un’erosione della fiducia degli utenti per la tecnologia, ostacolandone l’adozione. Ci sono, inoltre, dei problemi etici, perché i chatbot possono potenzialmente perpetuare stereotipi dannosi o addirittura una vera e propria disinformazione. Inoltre, le allucinazioni hanno un impatto reale, perché possono influenzare il processo decisionale degli esseri umani (vengono fornite informazioni sbagliate o inventate ai decisori) dalla finanza alla sanità sino alle aziende o alla vita quotidiana. E questo porta anche a conseguenze legali, sia per gli sviluppatori di sistemi di intelligenza artificiale che, soprattutto, per i loro utilizzatori. Per le persone, in via definitiva, che utilizzano un chatbot per prendere le proprie decisioni.
Leggi anche: “Intelligenza artificiale per tutti“
L’indagine condotta da Bitdefender in collaborazione con Netgear offre uno sguardo approfondito allo stato attuale…
EasyOS è una distribuzione Linux leggera e user-friendly sviluppata da Barry Kauler, creatore di Puppy…
Scoperto dai ricercatori di Kaspersky un trojan che prende di mira gli utenti italiani
I programmi formativi promossi da Samsung Electronics sono progettati per indirizzare i giovani verso le…
Potenziate le applicazioni della AI per aziende private e pubbliche amministrazioni grazie alla protezione dell’AI…
Il malware, che Kaspersky ha identificato come Backdoor.Win64.MLoki, è una versione private agent del framework…
Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!
CLICCA QUI PER ABBONARTI!