Nightshade: il tool che “avvelena” le IA è un vero successo

Nightshade IA poisoning tool

Con 250.00 download nei primi cinque giorni dal rilascio, si può sicuramente affermare che Nightshade, il tool che “avvelena” le IA ingannando i relativi algoritmi, è un vero successo.

“Mi aspettavo che sarebbe stato accolto con molto entusiasmo” ha rivelato a VentureBeat Ben Zhao, professore di informatica dell’Università di Chicago e leader del progetto. “Tuttavia, ho sottovalutato la cosa… la risposta è semplicemente al di là di tutto ciò che immaginavamo”.

Sviluppato dai ricercatori di informatica dell’ateneo canadese, questo strumento si pone l’obiettivo di tutelare le proprietà intellettuali degli artisti, in particolar modo illustratori, grafici fotografi e tutti coloro che fanno della creatività, digitale e non, una professione o comunque un’esternazione delle proprie passioni.

Liberamente scaricabile a questo indirizzo, Nightshade opera modificando in maniera invisibile, a livello di pixel, le immagini presenti online, disturbando i modelli di intelligenza artificiale e gli algoritmi che vengono utilizzati per addestrare le IA, impedendo così di servirsi o copiare correttamente opere coperte da copyright senza il consenso dell’autore.

AI poisoning Nightshade

Le IA avvelenate da Nightshade vanno in confusione e vedono gatti invece di cani

Questo processo, noto come “avvelenamento”, inganna le Intelligenze Artificiali come Dall-E, Midjourney e simili rendendo inutili i risultati estrapolati dalle immagini: i cani diventano gatti, le auto possono essere confuse con delle mucche e la foto di un lago di montagna potrebbe essere vista come una fetta di pizza da parte delle AI.

Secondo il professor Zhao, Nightshade può ristabilire un po’ di equilibrio tra i grandi colossi tecnologici che stanno facendo un uso sempre più importante dell’AI come OpenAI, Meta, Google e compagnia bella e tutti coloro che vorrebbero difendere la propria creatività e le proprie opere originali.

Open Source: il boost per Nightshade

Gli sviluppatori di Nightshade sono ben consapevoli che la risposta da parte delle AI non tarderà ad arrivare, con lo strumento “avvelenatore” che comunque darà filo da torcere ai modelli di apprendimento delle AI, aumentando i costi di gestione delle stesse e, in alcuni casi, scoraggiandone l’uso.

Come sempre, per far fronte allo strapotere oligopolistico delle grandi aziende IT, la risposta sembra essere sempre la stessa: open source. Il team dell’università di Chicago sta infatti realizzando una versione totalmente libera da diritti di Nightshade, consentendo a tutti di smanettare con il codice sorgente del tool e creare versioni diverse e personalizzate dello strumento, in pratica delle varianti dello stesso “veleno”.

“Più persone lo usano e ne fanno le proprie versioni, più potente diventerà lo strumento” ha detto Zhao. “La base di dati per i grandi modelli di intelligenza artificiale possono consistere in miliardi di immagini, quindi più immagini saranno trattate con Nightshade e strumenti simili, più alto sarà il rischio di incappare  immagini avvelenate da parte delle Intelligenze Artificiali”.

fonte