L’ultimo episodio arriva dagli Stati Uniti, dove un gruppo di studenti della scuola superiore Westfield High School ha utilizzato un’applicazione basata sull’intelligenza artificiale per creare immagini fittizie di nudo di circa 30 compagne di scuola. Queste immagini sono state diffuse tra gli studenti e sono state segnalate alle autorità scolastiche solo quando alcune delle ragazze coinvolte ne sono venute a conoscenza.
Un evento simile è avvenuto qualche mese fa nel Sud della Spagna, ad Almendralejo, dove sono state create false immagini di nudo di circa 20 ragazze, utilizzando le foto dei loro volti dai profili Instagram. Anche in Italia, in una scuola media di Latina, alcuni studenti avevano utilizzato un’app gratuita chiamata BikiniOFF per creare immagini di nudo con le foto delle proprie compagne e di un’insegnante.
Questi sono solo alcuni esempi di un fenomeno diffuso in tutto il mondo, chiamato deepfake, che consiste nella creazione di falsi contenuti visivi che coinvolgono persone ignare. Questo fenomeno, che prima richiedeva mezzi e competenze per l’editing, ora può essere realizzato con facilità grazie alle app basate sull’intelligenza artificiale.
Il deepfake coinvolge diversi settori, ma il 96% riguarda la pornografia e il 99% delle immagini coinvolge le donne. Secondo un’indagine di Wired US, nei primi nove mesi del 2023 sono stati caricati circa 113.000 video deepfake su 35 siti per adulti. Questi contenuti vengono diffusi senza il consenso delle vittime e rappresentano una forma di pornografia non consensuale che svuota di personalità e dignità le vittime.
Non esistono stime precise sull’impatto del deepfake sulla salute mentale delle vittime, ma è evidente che possa causare enormi problemi e situazioni di malessere profondo. Le donne vittime di abusi deepfake non godono di specifiche tutele legali, e le leggi attuali sul revenge porn e sulla pornografia minorile non sono sufficienti a proteggerle.