Categories: Articoli

Le IA hanno le allucinazioni

Le allucinazioni delle intelligenze artificiali stanno diventando un problema familiare per molti utenti di ChatGPT, Bard e di tutti gli altri modelli di chatbot che vengono utilizzati quotidianamente da milioni di persone. Fino a ieri considerate un problema solo per addetti ai lavori, le allucinazioni non sono in realtà l’unico “inciampo” nel quale può cadere un modello di intelligenza artificiale discorsiva addestrato con una grande quantità di testi.

 

Tutti gli errori dei chatbot

I chatbot possono, infatti, fare tutta una serie molto ampia di errori, dalla classificazione di un problema alla regressione, passando per la rilevanza sino alla estrazione del testo, la sua sintesi e il suo riconoscimento. Si tratta di errori comuni anche con altri tipologie di software. Con le intelligenze artificiali, però, è possibile anche un altro livello di errore.

 

Quando si ha un’allucinazione

Accade quando il chatbot ha quello che gli informatici chiamano “una allucinazione” (dal latino, vuol dire «parlare vanamente», «farneticare», «sognare»), cioè genera dei risultati di fantasia che possono sembrare plausibili, ma che sono di fatto errati ovvero non correlati al contesto dato. Questi risultati spesso emergono dai pregiudizi intrinseci del modello di intelligenza artificiale (sono state create delle relazioni arbitrarie o inesatte durante il suo addestramento, proprio come i nostri pregiudizi), dalla mancanza di comprensione del mondo reale (la domanda non viene capita perché non ci sono dati per metterla in relazione con una rappresentazione del mondo) o dalle limitazioni dei dati di addestramento (semplicemente, il chatbot non sa la risposta, ma se la inventa).

 

A domanda il chatbot risponde

In altre parole, il sistema di intelligenza artificiale “allucina” informazioni su cui non è stato esplicitamente addestrato, portando a risposte inaffidabili o fuorvianti. Questo accade molto più spesso di quanto non si creda (le percentuali esatte dipendono dal singolo modello di intelligenza artificiale e dal suo particolare addestramento) e dal tipo di domanda che viene posta. Il modo nel quale si architetta il cosiddetto “prompt” (la richiesta effettuata al chatbot o al modello di intelligenza artificiale in generale) è quello che introduce il primo errore. Ma spesso questo non dipende dalla domanda, e viene generato autonomamente dal chatbot. Alle volte è facilmente comprensibile che c’è un errore (“Milano è più vicina a New York di Boston”). Altre volte è molto più subdola o impossibile da individuare.

 

Quali sono le conseguenze?

I contraccolpi possono essere molto gravi. Innanzitutto perché i chatbot sono una tecnologia nuovissima per il grande pubblico e la produzione di informazioni errate o fuorvianti possono portare a un’erosione della fiducia degli utenti per la tecnologia, ostacolandone l’adozione. Ci sono, inoltre, dei problemi etici, perché i chatbot possono potenzialmente perpetuare stereotipi dannosi o addirittura una vera e propria disinformazione. Inoltre, le allucinazioni hanno un impatto reale, perché possono influenzare il processo decisionale degli esseri umani (vengono fornite informazioni sbagliate o inventate ai decisori) dalla finanza alla sanità sino alle aziende o alla vita quotidiana. E questo porta anche a conseguenze legali, sia per gli sviluppatori di sistemi di intelligenza artificiale che, soprattutto, per i loro utilizzatori. Per le persone, in via definitiva, che utilizzano un chatbot per prendere le proprie decisioni.

 

Leggi anche: “Intelligenza artificiale per tutti


Hai trovato questo articolo interessante? Seguici su Facebook , Twitter, Mastodon

hj_backdoor

Share
Published by
hj_backdoor

Recent Posts

IoT Security Landascape Report 2024

L’indagine condotta da Bitdefender in collaborazione con Netgear offre uno sguardo approfondito allo stato attuale…

9 ore ago

La distro per le memorie flash

EasyOS è una distribuzione Linux leggera e user-friendly sviluppata da Barry Kauler, creatore di Puppy…

2 giorni ago

SambaSpy: il malware che ama l’Italia

Scoperto dai ricercatori di Kaspersky un trojan che prende di mira gli utenti italiani

4 giorni ago

Samsung: al via i percorsi di formazione sull’IA

I programmi formativi promossi da Samsung Electronics sono progettati per indirizzare i giovani verso le…

7 giorni ago

Trend Micro sposa NVIDIA AI Enterprise

Potenziate le applicazioni della AI per aziende private e pubbliche amministrazioni grazie alla protezione dell’AI…

1 settimana ago

La backdoor Loki mette paura

Il malware, che Kaspersky ha identificato come Backdoor.Win64.MLoki, è una versione private agent del framework…

1 settimana ago

Abbonati ad Hackerjournal per un anno a 33,90 € con digitale in omaggio anziché 46,90 €!

CLICCA QUI PER ABBONARTI!