L’arte generata dall’intelligenza artificiale è piena di problemi
Quest’anno sembra che l’arte generata dall’intelligenza artificiale sia stata ovunque.
In estate, molti di noi hanno inserito suggerimenti sciocchi in DALL-E Mini (ora chiamato Craiyon), producendo una serie di nove immagini generate dall’intelligenza artificiale. Ma più recentemente, c’è stato un boom di app basate sull’intelligenza artificiale che possono creare fantastici avatar. MyHeritage AI Time Machine genera immagini di utenti in stili e impostazioni storici, e i filtri AI TikTok sono diventati popolari per la creazione di versioni anime di persone. La scorsa settimana, gli “avatar magici” di Lensa AI hanno inondato piattaforme di social media come Twitter con rendering illustrativi e pittorici di colpi alla testa delle persone, come se fossero stati veramente realizzati per magia.
Questi avatar, creati utilizzando Stable Diffusion – che consente all’IA di “imparare” le caratteristiche di qualcuno sulla base delle immagini inviate – hanno anche aperto un barattolo etico di worm sull’applicazione dell’IA. La gente ha scoperto che gli “avatar magici” tendevano a sessualizzare le donne e sembravano avere firme di artisti falsi nell’angolo inferiore, suscitando domande sulle immagini che erano state utilizzate per addestrare l’IA e da dove provenissero. Ecco cosa devi sapere.
Cos’è Lensa AI?
È un’app creata da Prisma Labs che recentemente ha superato la classifica gratuita dell’app store iOS. Sebbene sia stata creata nel 2018, l’app è diventata popolare dopo aver introdotto una funzione “avatar magico” all’inizio di questo mese. Gli utenti possono inviare da 10 a 20 selfie, pagare una quota ($ 3,99 per 50 immagini, $ 5,99 per 100 e $ 7,99 per 200) e quindi ricevere un pacchetto di immagini generate dall’intelligenza artificiale in una gamma di stili come “kawaii” o “fantasy”. ”
Gli “avatar magici” dell’app hanno uno stile in qualche modo inquietante, rifrangendo le sembianze come attraverso uno specchio da luna park. In un pacchetto di 100, almeno alcuni dei risultati cattureranno probabilmente la foto dell’utente abbastanza bene nello stile di un dipinto o di un personaggio anime. Queste immagini hanno inondato Twitter e TikTok. (Viaggio247 ha chiesto a Prisma Labs una stima di quanti avatar sono stati prodotti e la società ha rifiutato di rispondere.) Celebrità come Megan Fox, Sam Asghari e Chance the Rapper hanno persino condiviso le loro somiglianze create da Lensa.
In che modo Lensa crea questi avatar magici?
Lensa utilizza Stable Diffusion, un modello di deep learning AI open source, che attinge da un database di opere d’arte scaricato da Internet. Questo database si chiama LAION-5B e include 5,85 miliardi di coppie immagine-testo, filtrate da una rete neurale chiamata CLIP (anch’essa open-source). Stable Diffusion è stato rilasciato al pubblico il 22 agosto e Lensa è tutt’altro che l’unica app che utilizza le sue funzionalità di conversione da testo a immagine. Canva, ad esempio, ha recentemente lanciato una funzionalità utilizzando l’intelligenza artificiale open source.
Un’analisi indipendente di 12 milioni di immagini dal set di dati – una piccola percentuale, anche se sembra enorme – ha fatto risalire le origini delle immagini a piattaforme come Blogspot, Flickr, DeviantArt, Wikimedia e Pinterest, l’ultima delle quali è la fonte di circa la metà della raccolta.
Più preoccupante, questo “set di dati su larga scala non è curato”, afferma la sezione disclaimer della pagina del blog delle domande frequenti su LAION-5B. O, in parole normali, questa intelligenza artificiale è stata addestrata su una manichetta antincendio di immagini Internet pure e non adulterate. Stability AI ha rimosso solo i “contenuti illegali” dai dati di formazione di Stable Diffusion, incluso il materiale sugli abusi sessuali su minori, ha riferito The Verge. A novembre, Stability AI ha apportato alcune modifiche che hanno reso più difficile realizzare immagini NSFW. Questa settimana, Prisma Labs ha dichiarato a Viaggio247 che anche “ha lanciato un nuovo livello di sicurezza” che è “mirato ad affrontare i contenuti NSFW indesiderati”.
La licenza di Stable Diffusion afferma che gli utenti non possono utilizzarla per violare la legge, “sfruttare, danneggiare o tentare di sfruttare o danneggiare minori” o per generare informazioni false o denigrare e molestare altri (tra le altre restrizioni). Ma la tecnologia stessa può ancora generare immagini in violazione di tali termini. Come afferma The Verge, “una volta che qualcuno ha scaricato Stable Diffusion sul proprio computer, non ci sono vincoli tecnici su ciò per cui può utilizzare il software”.
Perché i generatori di arte AI sono diventati così popolari quest’anno?
Sebbene questa tecnologia sia in fase di sviluppo da anni, alcuni generatori di arte AI sono entrati in beta pubblica o sono diventati pubblicamente disponibili quest’anno, come Midjourney, DALL-E (tecnicamente DALL-E 2, ma la gente lo chiama semplicemente DALL-E) e Stable Diffusione.
Queste forme di intelligenza artificiale generativa consentono agli utenti di digitare una serie di termini per creare immagini impressionanti. Alcuni di questi sono deliziosi e stravaganti, come mettere uno Shiba Inu in un berretto. Ma probabilmente puoi anche immaginare con quanta facilità questa tecnologia potrebbe essere utilizzata per creare deepfake o pornografia.

Queste immagini sono state generate utilizzando DALL-E 2.Immagine: DALLE-2
C’è anche un grado di finezza che l’arte dell’IA non sembra proprio riuscire a ottenere, almeno non ancora. Tende a lottare con le dita: ne volevi 12? – e ha prodotto creazioni decisamente da incubo come più teste e facce rotte.
Stable Diffusion, a differenza di DALL-E, Midjourney e Imagen di Google, è open source e si è quindi diffuso ampiamente. Midjourney, creato da un team indipendente, è entrato in open beta quest’estate; puoi generare 25 immagini gratuite se ti unisci a Discord. DALL-E, creato da OpenAI, ha debuttato ad aprile prima di rimuovere la sua lista d’attesa e aprire l’accesso beta a settembre, momento in cui gli utenti hanno generato circa 2 milioni di immagini al giorno. DALL-E offre agli utenti crediti gratuiti mensili che possono essere utilizzati per generare immagini e puoi pagare crediti aggiuntivi. Chiunque può utilizzare Stable Diffusion, a condizione che disponga di un’adeguata potenza di elaborazione. È anche, rispetto ai suoi concorrenti, molto più non filtrato e quindi in grado di essere utilizzato per realizzare immagini più offensive.
Stability AI, la società dietro Stable Diffusion, ha riconosciuto in un comunicato che “il modello può riprodurre alcuni pregiudizi della società e produrre contenuti non sicuri”. Viaggio247 ha contattato Stability AI e aggiornerà questa storia con la sua risposta.

Queste immagini sono state generate utilizzando DALL-E 2.Immagine: DALL-E 2
Prisma Labs riconosce anche i pregiudizi di Stable Diffusion nelle sue FAQ. Quando Viaggio247 ha chiesto a Prisma Labs dell’esistenza di pregiudizi nell’IA generativa, abbiamo ottenuto questa risposta: “È fondamentale notare che i creatori di Stable Diffusion Model lo hanno addestrato su un insieme considerevole di dati non filtrati provenienti da Internet. Quindi né noi né Stability AI (creatore dello Stable Diffusion Model) potremmo applicare consapevolmente alcun pregiudizio di rappresentazione. Per essere più precisi, i dati non filtrati creati dall’uomo provenienti online hanno introdotto il modello ai pregiudizi esistenti dell’umanità. In sostanza, l’intelligenza artificiale è uno specchio della nostra società”.
Quali tipi di pregiudizi si presentano in Lensa AI?
Un certo numero di giornalisti ha sottolineato che gli “avatar magici” di Lensa AI tendono a sessualizzare le donne e ad anglicizzare le minoranze. Lensa ha aggiunto grandi seni e scollature da cartone animato alle immagini di donne – oltre a generare nudi – quando tali immagini non erano richieste.
Olivia Snow, una ricercatrice presso il Center for Critical Internet Inquiry dell’UCLA, ha sottolineato in Wired che Lensa ha prodotto immagini sessualizzate anche quando ha inviato foto di se stessa da bambina. Un giornalista di Jezebel ha chiesto a Prisma Labs delle scoperte di Snow; Prisma Labs ha affermato che Snow aveva “violato esplicitamente e intenzionalmente [its] Condizioni d’uso.” I termini di servizio di Lensa vietano l’invio di nudi e indirizzano gli utenti a inviare immagini di adulti, “niente bambini”. L’app richiede inoltre agli utenti di fare clic su una casella che indica che hanno almeno 18 anni prima di creare questi “avatar magici”.
Ho provato l’app Lensa AI e ho fornito 20 foto di me stesso, e devo dire che fa davvero fatica con i volti asiatici. I miei risultati sono stati distorti per essere più dell’Asia orientale e non sono assolutamente impressionato. pic.twitter.com/WnyLKXQT8K
— Anisa Sanusi (@studioanisa) 3 dicembre 2022
Lensa perpetua anche stereotipi razzisti, come la feticizzazione delle donne asiatiche. Una giornalista asiatica che scrive per MIT Technology Review ha dettagliato la sua esperienza con l’app di Lensa fornendole una serie di avatar che erano “nudi” o “mostravano molta pelle”, mentre le sue colleghe bianche “hanno ottenuto un numero significativamente inferiore di immagini sessualizzate”.
TechCrunch ha anche notato che è abbastanza facile creare immagini NSFW di celebrità semplicemente alimentando le immagini AI photoshoppate. Ciò ha implicazioni sorprendenti per il modo in cui tale software potrebbe essere utilizzato per creare vendetta porno, ad esempio. (Particolarmente preoccupante anche perché il numero di vittime di revenge porn è salito alle stelle durante la pandemia di COVID-19.)
Il 13 dicembre, Prisma Labs ha lanciato nuove funzionalità volte ad affrontare le immagini NSFW. Un rappresentante delle comunicazioni ha indirizzato Viaggio247 a un comunicato stampa: “Ciò è stato possibile grazie a un’indagine approfondita per aggiornare e modificare diversi parametri del modello di diffusione stabile sfruttato dall’app. Per affrontare i recenti problemi di sicurezza e migliorare l’esperienza complessiva nell’app, gli sviluppatori di Prisma Labs si sono assicurati di rendere meno probabile la generazione di tali avatar. In rare occasioni, quando il nuovo algoritmo NSFW non funziona e non fornisce i risultati desiderati, entra in gioco il livello di sicurezza successivo per offuscare eventuali elementi visivi inappropriati e nudità nei risultati finali.
L’hai visto in azione?
Sì! Il 13 dicembre ho inviato 19 immagini a Lensa per produrre 100 avatar, che mi sono costati $ 5,99. Le immagini che ho scelto presentavano il mio viso in varie angolazioni e luci. Una di queste immagini mostrava il mio corpo: indossavo un vestito ampio e scattavo una foto allo specchio.
Ho ricevuto in cambio 100 immagini, che offrivano una panoplia di tratti sezionati su così tanti volti che alla fine non mi somigliavano. Lensa sembrava non avere idea di cosa fare con la mia faccia – sono taiwanese e bianca – creando alcune immagini che sembravano dell’Asia orientale ma per il resto come perfetti sconosciuti, a parte una mia particolare stranezza, come la mia mascella o la forma degli occhi. Alcune immagini sembravano semplicemente donne bianche, con Lensa che mi dava persino gli occhi azzurri, anche se ho gli occhi marroni e nessuna delle immagini che ho inviato mi mostrava con gli occhi azzurri.
Queste modifiche si sono raggruppate attorno a particolari “categorie” delineate dall’app. Le immagini per “kawaii” sembravano più dell’Asia orientale, con alcune che generavano un corpo magro. Sotto “luce” e “fantasia”, i risultati sembravano più bianchi. Alcune delle immagini nel pacchetto “iridescente” mi facevano sembrare un androide…
