Connect with us

Articoli

Il nemico in casa!

Avatar

Pubblicato

il

Il nemico in casa!

La società di intelligenza Artificiale OpenAI ha deciso di non rendere pubblici alcuni dei suoi modelli “addestrati”, considerati troppo pericolosi

Quando è stato sviluppato GPT-2, un modello di Intelligenza Artificiale sviluppato da OpenAI come successore di GPT, l’obiettivo era apparentemente semplice: predire quale sarebbe stata la parola successiva di un testo. Lo scopo era quello di creare frasi di senso compiuto, una specie di versione più evoluta della tastiera smart del telefono. Per addestrare l’algoritmo di IA i suoi sviluppatori gli hanno dato in pasto 40 GB di testi (circa 8 milioni di pagine) e sembra che l’algoritmo ci abbia messo pochissimo a capire come parlano gli umani. Con stupore dei suoi stessi autori, era troppo bravo. Così tanto che hanno preferito non renderlo pubblico e di rilasciarne solo una variante semplificata. “Questa AI ha un potenziale distruttivo” ha spiegato Hannah Jane Parkinson, giornalista del Guardian. Come mai fa tanta paura? Perché GPT-2 è in grado di inventarsi le informazioni e lo fa talmente bene che possono apparire scritte da una persona in carne e ossa. Lo stesso Vice President of Engineering dell’azienda ammette che potrebbe essere utilizzato per scopi illeciti. Secondo alcuni, però, la questione è stata ingigantita: il sospetto è che OpenAI con questo annuncio abbia solamente voluto farsi un sacco di pubblicità gratuita.
Sarà un pericolo reale o solo una mossa strategica di marketing?

Se vuoi saperne di più non perdere Hacker Journal 231 in edicola a partire dal 16 aprile oppure disponibile online da oggi!

Facebook Comment

In Edicola


237 – Dal 15 Ottobre 2019!

Forum

Facebook

Trending

IN EDICOLA