Falla nell’intelligenza artificiale di OpenAI: permetteva l’uso improprio di immagini | Ne siamo tutti vittime: scoperto solo adesso l’errore
È stata finalmente scoperta la falla nell’intelligenza artificiale che permetteva la creazione di immagini: gli utilizzi impropri derivavano da lì, ecco cosa è successo e cosa abbiamo rischiato tutti
Il problema dell’utilizzo improprio di immagini è il terrore anche per gli stessi sviluppatori di intelligenze artificiali avanzate. OpenAI, ad esempio, tra le prime aziende a farne lancio, ha proposto una piattaforma a pagamento la quale permette la creazione di immagini da zero, oppure attraverso la modifica di foto già esistenti.
Il problema consiste nel fatto che il sistema ha permesso utilizzi impropri delle immagini, create come deepfake, ovvero montaggi falsi che vengono attribuiti a un volto, nella maggior parte dei casi di personaggi famosi, per creare clamore e scandalo. L’altissima pericolosità della falla ha fatto sì che l’errore si ricreasse in centinaia di casi: gli utenti riuscivano ad utilizzare impropriamente foto di persone realmente esistenti, ledendo la loro immagine.
Finalmente è stata scoperta la causa e adesso l’azienda si prenderà la responsabilità di assicurare la privacy limitando al massimo la possibilità di catastrofi mediatiche simili a quella accaduta a Taylor Swift, ma vediamo nel dettaglio cosa è successo e da cosa è partita la segnalazione.
Scoperta della vulnerabilità del modello Dall-E 3 di OpenAI, ecco perché si riusciva a creare immagini pericolose per la privacy
Dopo le polemiche legate all’AI di Microsoft, utilizzata per creare false immagini di nudo di Taylor Swift, il colosso tecnologico si trova nuovamente sotto i riflettori. Shane Jones, ingegnere di intelligenza artificiale di Microsoft, ha infatti sollevato preoccupazioni su una vulnerabilità nel modello di generazione di immagini Dall-E 3 di OpenAI, secondo il quale presenterebbe alti rischi per la sicurezza.
Quando utilizzato in strumenti come Bing Image Creator, gli utenti potrebbero aggirare le protezioni dell’IA e creare così contenuti dannosi. L’azienda di Redmond ha comunque risposto positivamente dopo una prima disputa relativa alla pubblicazione di queste lamentele a livello pubblico ma, secondo Microsoft, l’ingegnere avrebbe dovuto aspettare la risposta privata prima di permettersi una diffamazione a livello mondiale su un social network.
Nonostante questi fraintendimenti, recentemente l’azienda ha implementato un aggiornamento significativo al suo strumento di intelligenza artificiale, Designer, al fine di prevenire l’abuso del software nella creazione di immagini false e inappropriate, ma adesso rimane da capire come affronteranno la vulnerabilità segnalata nel modello Dall-E 3: fino a questo momento rimaniamo ancora tutti scoperti, potenziali vittime.