App Store e deepnude: lo studio che mette in imbarazzo Apple
Le app deepnude continuano a circolare sull’App Store di Apple e sul Google Play Store, nonostante le regole che dovrebbero impedirlo. A dirlo è uno studio del Tech Transparency Project (TTP), che ha analizzato quanto sia facile trovare software capace di manipolare immagini reali per spogliare digitalmente le persone, inserirle in video pornografici o trasformarle in chatbot sessualmente espliciti.
La ricerca ha utilizzato termini come “nudify”, “undress”, “AI NSFW” e “deepnude”, scoprendo che circa il 40 percento delle app individuate era in grado di generare immagini di donne nude o seminude a partire da foto reali. Un dato che fa riflettere, soprattutto considerando che Apple ha politiche dichiarate piuttosto rigide contro questo tipo di contenuti. Eppure, queste app non solo esistevano, ma venivano persino suggerite dal sistema di autocompletamento della ricerca dell’App Store, che proponeva nuovi termini correlati per trovarne altre.
Apple non ha rilasciato commenti ufficiali sullo studio, ma il TTP ha riferito che il colosso di Cupertino ha rimosso 15 app dopo aver ricevuto i risultati della ricerca. Al momento, termini come “nudify” e “undress” non restituiscono più risultati sull’App Store, ma cercando “deepnude” emergono ancora diverse applicazioni che offrono trasformazioni del corpo o dell’abbigliamento.
Il caso Grok e le pubblicità fuori controllo
Tra le app suggerite dalla ricerca “deepnude” compariva anche Grok, il chatbot di intelligenza artificiale creato da X (la piattaforma di Elon Musk). Proprio nei giorni scorsi, era emerso che Apple avrebbe privatamente minacciato di rimuovere Grok dall’App Store per la sua capacità di generare immagini deepfake di nudo. Quello che colpisce è che non è chiaro se le altre app segnalate dal TTP abbiano ricevuto lo stesso trattamento di cortesia riservato a X, ovvero un avvertimento prima della rimozione. Al momento, Grok resta comunque disponibile per il download.
C’è poi la questione delle pubblicità. Il TTP ha scoperto che l’App Store mostrava inserzioni sponsorizzate per app di tipo nudify in risposta a determinate ricerche. Questo nonostante le policy pubblicitarie di Apple vietino esplicitamente contenuti che promuovono “temi orientati agli adulti o contenuti grafici espliciti”. Un cortocircuito piuttosto evidente tra regole scritte e applicazione reale.
Non solo deepnude: le truffe che sfuggono ai controlli
Lo studio del TTP arriva in un momento particolarmente delicato per la sicurezza dell’App Store. Solo pochi giorni prima, erano emerse notizie su due app fraudolente presenti nello store: una falsa versione di Ledger Live, che rubava l’accesso ai portafogli bitcoin degli utenti, e una versione contraffatta di Freecash, progettata per raccogliere dati personali di nascosto. Episodi che, sommati alla vicenda delle app deepnude, sollevano domande serie sulla reale efficacia del processo di revisione delle app da parte di Apple. Quella che da sempre viene presentata come una piattaforma sicura e controllata mostra, a quanto pare, qualche crepa più profonda del previsto.


