La scorsa settimana, immagini deepfake sessualmente esplicite di Taylor Swift secondo quanto riferito, realizzato utilizzando l’intelligenza artificiale sono stati diffusi sui social media. È stato solo l’ultimo, e di più alto profilo, esempio dei crescenti pericoli dei deepfake e delle molestie digitali.
Swift non è la prima donna a cui succede, né sarà l'ultima. Si può dire con certezza che quasi ogni altra vittima di un deepfake pornografico ha meno risorse di una pop star miliardaria con milioni di fan in tutto il mondo che sono molto online e esperti al riguardo. Ma il fatto che ciò possa accadere anche a Taylor Swift ha portato una rinnovata attenzione alla questione e ad un pubblico più ampio. Ha persino dato impulso alla legislazione federale per combattere gli abusi, dicono i sostenitori.
Martedì i senatori americani hanno introdotto il bipartisan Interrompere la legge 2024 sulla falsificazione esplicita delle immagini e sulle modifiche non consensuali (DEFIANCE Act) per affrontare e scoraggiare la pornografia falsa e profonda non consensuale. Il disegno di legge consentirebbe alle vittime di “falsificazione digitale” – “creata attraverso l’uso di software, apprendimento automatico, intelligenza artificiale o qualsiasi altro mezzo generato dal computer o tecnologico per apparire falsamente autentici” – di citare in giudizio civilmente gli autori, dando loro l’opportunità di chiedere giustizia per la prima volta.
Le vittime della pornografia deepfake non consensuale non hanno avuto molto successo nel denunciare le persone che creano, distribuiscono o sollecitano la pornografia deepfake, secondo Omny Miranda Martone, che ha lavorato con i legislatori sul disegno di legge come fondatrice e CEO della Associazione per la prevenzione della violenza sessuale (ASVPA) . La tecnologia è ancora abbastanza nuova e, come per altre questioni sociali legate alla tecnologia, le leggi devono aggiornarsi. Nel frattempo, la tecnologia è avanzata per rendere ancora più semplice per chiunque realizzare deepfake generati dall’intelligenza artificiale.
La quantità di violenza sessuale contro individui comuni è salita alle stelle.
«Fino a circa due anni fa...» . . qualcuno aveva bisogno di avere un computer ad alta potenza, doveva sapere molto sulla tecnologia ed essere in grado di gestire un sistema confuso e potenzialmente persino costruire il sistema da solo. E avevano bisogno di molte foto della vittima perché sembrassero realistiche,' spiega Martone. Ma la tecnologia dell'intelligenza artificiale è significativamente avanzata, ed è arrivata al punto in cui chiunque può creare pornografia deepfake, non consensuale, dall'aspetto davvero realistico, utilizzando solo una o due foto. Non hanno bisogno di sapere molto di tecnologia, possono semplicemente accedere a un'app o a un sito Web sul proprio telefono o computer e farcela in pochi secondi.'
Ciò è sconcertante oggi, dato che entro il 2017, uno su otto secondo il rapporto, gli utenti dei social media hanno riferito di essere stati bersaglio di pornografia non consensuale e un adulto su 20 sui social media ne è stato autore. Iniziativa per i diritti civili informatici .
Considerati questi progressi tecnologici – e il fatto che “chiunque abbia accesso a Internet può facilmente crearlo” – “la quantità di violenza sessuale contro individui comuni è salita alle stelle”, afferma Martone. Le celebrità erano state l'obiettivo più comune a causa della disponibilità delle loro immagini. Ma ora [gli autori dei reati] hanno solo bisogno di un paio di foto che possono ottenere dal LinkedIn o dai social media di qualcuno o dal sito web della loro azienda, spiega Martone.
Ciò è sproporzionatamente dannoso per le donne, secondo Margaret Mitchell, ex co-responsabile del team Ethical Artificial Intelligence di Google. È estremamente violento, ha un effetto psicologico estremamente traumatico su di te se ne sei vittima. È anche oggettivante, quindi influenza le altre persone a vederti attraverso una lente sessuale invece che una lente professionale. Ciò significa che può influenzare le opportunità, dice a 247CM.
«Le donne già lottano per essere viste come leader, per essere prese sul serio sul posto di lavoro. Quando questo tipo di contenuti circolano, ciò può influenzare il modo in cui le donne possono essere promosse e ottenere più posizioni di leadership, continua Mitchell, che ora è capo scienziato etico presso Hugging Face, una piattaforma aperta per costruttori di intelligenza artificiale. Si diffonde in così tante cose in un modo che a volte può essere davvero difficile da rintracciare, ma influenza fondamentalmente il modo in cui ti vedi, quello che provi per te stesso e il modo in cui le altre persone ti trattano.
Nel caso di Swift, le immagini hanno avuto origine da 4chan e un gruppo su Telegram utilizzato per distribuire immagini offensive di donne 404 mezzi . Designer, un generatore gratuito di intelligenza artificiale di Microsoft, viene spesso utilizzato per produrre contenuti non consensuali, secondo il punto vendita. In risposta alla segnalazione, Microsoft chiuso una scappatoia ciò ha permesso a Designer di realizzare porno di celebrità generati dall'intelligenza artificiale.
Ma nel frattempo le immagini hanno rapidamente inondato X, precedentemente noto come Twitter. In un insolito esempio di moderazione dei contenuti nell'era di Elon Musk, X ha istituito un blocco temporaneo alla ricerca di Taylor Swift, che ha rallentato la diffusione, ma non è stato in grado di rimuovere tutte le immagini, CBS News riportato . La risposta di X ha seguito legioni di Swifties che hanno segnalato i post e hanno chiesto al sito di rimuoverli. È arrivato anche dopo che i post erano già diffusi: uno aveva già registrato 45 milioni di visualizzazioni, 24.000 retweet e centinaia di migliaia di Mi piace e segnalibri in 17 ore prima che l'account dell'utente verificato fosse sospeso, secondo Il limite . Lunedì 29 gennaio il blocco era scaduto.
Anche se l'SVPA lavora con il Congresso da un po' (Martone afferma di aver inviato una lettera aperta l'anno scorso esortandoli ad affrontare la questione) sembra a Martone che non abbiano preso provvedimenti finché la notizia di Taylor Swift non è diventata davvero grande.
Anche se ritieni che a nessuno importi delle tue immagini, l'intelligenza artificiale si preoccupa.
Tuttavia, la maggior parte delle vittime della pornografia non consensuale non sono di alto profilo. La maggior parte sono donne e molte hanno identità emarginate, che si tratti di razza, etnia e/o orientamento sessuale. La SVPA, ad esempio, ha lavorato con una donna che era una studentessa universitaria che si allenava in palestra quando è stata picchiata da un uomo, che ha rifiutato. Qualche settimana dopo, un altro membro della palestra ha preso da parte la donna per farle sapere che l'uomo che aveva rifiutato aveva realizzato una pornografia deepfake su di lei - e l'aveva mostrata ad altri membri della palestra e l'aveva pubblicata su Instagram, dove era riuscita a farla rimuovere. Martone dice che recentemente ne hanno fatto un deepfake porno, dato il loro lavoro sulla questione.
Senza legislazione è difficile fare ricorso. Poiché il contenuto problematico è riconosciuto come falso, non è considerato diffamazione, aggiunge Martone.
In ogni caso, come società, dovremmo tutti lavorare per impedire la creazione e la condivisione di contenuti non consensuali, dicono gli esperti. L'idea che il problema sia in crescita e che sia impossibile rimettere il genio nella lampada non dovrebbe alimentare un senso di inevitabilità o di intorpidimento.
Per coloro che pensano che non si troverebbero mai in questo tipo di situazione, Mitchell sottolinea anche che la tecnologia ha permesso che diventasse così comune che chiunque potrebbe esserne colpito.
Come spiega Mitchell: Le persone dovrebbero essere consapevoli che qualsiasi contenuto che mettono online potrebbe potenzialmente essere rubato da privati o da aziende per essere utilizzato come parte della formazione sull'intelligenza artificiale. Quindi potrebbe non essere che qualche foto di famiglia su Facebook sia qualcosa che interessi al grande pubblico. Ma non è questa la domanda. La domanda è: questi contenuti verranno raccolti da una grande azienda tecnologica in un modo che possa aiutare ulteriormente l'oggettivazione delle donne?'
In definitiva, è la tecnologia di cui devi essere consapevole e diffidare. Anche se ritieni che a nessuno importi delle tue immagini, l'intelligenza artificiale si preoccupa, afferma Mitchell. I sistemi di intelligenza artificiale possono ancora spazzarli via, possono ancora essere usati per travisarti, e possono ancora essere usati in qualsiasi tipo di situazione di vendetta, e qualsiasi tipo di situazione in cui hai qualcuno che sarà un attore malevolo del genere può farti del male personalmente.