App gratuite che trasformano foto innocenti in abusi sessuali digitali

Dal Mondo – Le app di “undress AI” oggi non sono più un fenomeno di nicchia per smanettoni, ma strumenti di massa che chiunque può scaricare ed utilizzare con pochi tap, spesso gratis, dagli store ufficiali. In mano a un adolescente annoiato o a un bullo determinato, vanno a diventare un’arma potentissima: in quanto sono in grado di trasformare foto normali, anche innocenti, in immagini di nudo realistico e non consensuale, spesso con vittime minorenni del tutto inconsapevoli.

Un pericolo a portata di store

Immaginiamo la scena: uno studente di qualsiasi età munito di uno smartphone o un tablet apre lo store di Google Play o l’App Store, cerca un “photo editor divertente”, trova un’app con stelline e recensioni e la scarica in un attimo. Carica la foto di una compagna di classe, magari presa da Instagram, o a altra piattaforma social e in pochi secondi l’app restituisce una versione completamente nuda, credibile agli occhi di chiunque. Questa purtroppo è la realtà che emerge dagli ultimi report indipendenti: il Tech Transparency Project ha identificato almeno 55 app di questo tipo sul Play Store e 47 sull’App Store, tutte in grado di creare immagini sessualizzate non consensuali.
Molte di queste applicazioni risultano ancora oggi scaricabili, nonostante le policy ufficiali di Apple e Google dichiarino il divieto per software che generano deepfake sessuali.

Chi le usa, chi le sviluppa, chi subisce il danno

Le vittime non sono solo donne adulte: la platea comprende ragazze, ragazzi e persino bambini, spesso ritratti in contesti quotidiani – una festa, una gita, una foto in costume al mare – e trasformati in materiale pseudo-pornografico con un mero click.

Secondo il Tech Transparency Project, la stragrande maggioranza delle app analizzate è pensata e ottimizzata per “spogliare” corpi femminili, con template predefiniti che simulano nudità, lingerie o pose allusive. Chiunque abbia un’immagine online, reale o generata da altri, può diventare bersaglio: figlie, sorelle, compagni di classe, colleghe, ex partner.

Sul fronte degli sviluppatori, il quadro è molto nebuloso: spesso si tratta di team anonimi con base dichiarata in Paesi extra‑UE o in giurisdizioni a bassa regolamentazione, che pubblicano app sotto etichette generiche come “face swap”, “photo enhancer” o “AI art studio”. Molte propongono una versione gratuita con crediti limitati, watermark o pubblicità invasive; le opzioni premium, invece, promettono “risultati puliti” e illimitati, a fronte di abbonamenti mensili modesti.

Chi le scarica queste app?

I dati disponibili parlano chiaro: in Belgio, uno studio dell’Università di Anversa su oltre 2.800 giovani tra i 15 e i 25 anni ha rilevato che il 41,9% ha già sentito parlare di “deepnude”, e tra chi conosce le app il 60,5% ha provato almeno una volta a creare un finto nudo. Ragazzi e ragazze sperimentano per curiosità, per scherzo, per bullismo o per esercitare controllo e ricatto sulla vittima.

Le conseguenze sono estremante pesanti per tutti:

per le vittime, che si ritrovano a gestire vergogna, ansia, isolamento, minacce e la paura che quelle immagini circolino per sempre;

per le famiglie, spesso impreparate ad affrontare un abuso digitale così invasivo;

per le piattaforme, chiamate a rispondere di un vuoto evidente nei sistemi di moderazione e di verifica delle app in quanto si parla di migliaia di contenuti creati istananeamente.

Come funzionano tecnicamente queste app

Dal punto di vista tecnologico, le app di undress AI utilizzano modelli generativi addestrati su grandi insiemi di immagini di corpi nudi, reali o sintetici.

Il processo tipico segue alcuni passaggi ricorrenti:

Caricamento dell’immagine: l’utente invia una foto di una persona vestita è sufficiente un primo piano, una figura a mezzo busto o a corpo intero.

Riconoscimento e mappatura: l’IA individua contorni del corpo, punti chiave (spalle, anche, torace), proporzioni e direzione delle luci.

“Rimozione” virtuale dei vestiti: il modello genera una nuova immagine del corpo nudo, che viene fusa con il volto originale; i vestiti vengono eliminati o sostituiti con texture di pelle e dettagli anatomici coerenti.

Output finale: in 10–30 secondi l’utente ottiene un deepfake di nudo che, agli occhi di molti, sembra una foto scattata senza veli. Le versioni a pagamento offrono spesso opzioni aggiuntive: lingerie, modifiche di corporatura, variazioni di posa o “miglioramento” della qualità.

Molte applicazioni offrono un set limitato di funzioni gratuite – pochi crediti al giorno, presenza di watermark – e spingono verso abbonamenti mensili per rimuovere filigrane, aumentare la risoluzione o sbloccare template più espliciti. Il tutto accessibile via app mobile, siti web e, in alcuni casi, bot su piattaforme di messaggistica che non richiedono nemmeno l’installazione di un’app dedicata.

L’esplosione recente: numeri e tendenze

Il vero salto di scala si è visto tra il 2024 e l’inizio del 2026, quando la diffusione di modelli open‑source e di API commerciali per la generazione di immagini ha abbassato drasticamente la soglia tecnica per sviluppare questi strumenti.

L’indagine del Tech Transparency Project, pubblicata a gennaio 2026, ha identificato 102 app di tipo “nudify” attive nei due principali store mobili: 55 su Google Play e 47 sull’App Store, in alcuni casi disponibili su entrambe le piattaforme con nomi e icone leggermente diversi.

In parallelo, studi sui giovani europei mostrano quanto queste app siano già penetrate nella cultura digitale: la ricerca belga citata evidenzia che oltre un giovane su dieci tra 15 e 25 anni ha già ricevuto un deepnude e che la maggioranza di chi conosce gli strumenti ha provato a produrne almeno uno.

Questa combinazione e disponibilità massiva sugli store insieme alla curiosità diffusa tra i ragazzi, rende l’uso delle app di undress AI un fenomeno non più marginale, ma strutturale, destinato a crescere finché non verranno introdotte barriere tecniche e legali più incisive.

Dove si trovano e come arrivano ai minori

La parte più inquietante è che gran parte di queste app non circola nei circuiti underground, ma attraverso canali apparentemente “legittimi”:

Store ufficiali: le applicazioni individuate da TTP e rilanciate da CNBC, Mashable e altri media erano tutte disponibili negli store di Apple e Google almeno fino a fine gennaio 2026, nonostante policy che vietano espressamente i deepfake sessuali. Molte riportavano rating “per tutti” o 12+/17+, con descrizioni volutamente vaghe.

Social network: TikTok, Instagram e altre piattaforme ospitano tutorial, recensioni e link di affiliazione che promuovono queste app come “trucchetti” o “giochi” di editing, spesso rivolti proprio a un pubblico adolescente.

Siti web e bot: servizi in cloud e bot di messaggistica consentono di caricare foto e ricevere immagini modificate senza passare dagli store, aggirando controlli e sistemi di classificazione.

Per un minore, l’accesso è estremamente semplice: è sufficiente mentire sull’età al momento dell’iscrizione o utilizzare un account genitore condiviso. I controlli di età si basano, nella maggior parte dei casi, sull’autodichiarazione, non su verifiche reali mediante un operatore umano.

Perché è da considerare un disastro etico, legale e sociale

Sul piano etico, queste app normalizzano l’idea che il corpo altrui condivisibile senza consenso, alimentando una cultura di violenza e controllo che si sposta dal fisico al mondo digitale.

Sul piano psicologico, le ricerche e le organizzazioni che lavorano con le vittime parlano di:

vergogna profonda e perdita di fiducia negli altri;

ansia, depressione, isolamento, fino a ideazione suicidaria nei casi più gravi;

vittimizzazione secondaria, quando l’ambiente scolastico o sociale minimizza, considera la cosa un “scherzo” o colpevolizza la persona ritratta.

Giuridicamente, il quadro si sta muovendo rapidamente:

Nel Regno Unito, la condivisione di immagini intime non consensuali reali o generate è perseguibile per legge, e l’Online Safety Act 2023 impone alle piattaforme l’obbligo di rimuovere contenuti illegali.

Negli Stati Uniti, diversi Stati e iniziative federali hanno introdotto norme specifiche che criminalizzano la creazione e la diffusione di materiale sessualmente esplicito generato da AI quando coinvolge minori o viene usato per molestare e ricattare.

In Europa, campagne di sensibilizzazione come quella lanciata da Child Focus in Belgio insistono sul fatto che produrre deepnude senza consenso è punibile e causa un danno grave alle vittime, anche quando gli autori sono coetanei.

Qui si inserisce la zona grigia più delicata: anche se alcune legislazioni storiche sul CSAM non menzionavano esplicitamente le immagini generate al computer, le autorità e i nuovi testi normativi stanno convergendo sull’idea che sessualizzare l’immagine di un minore, anche tramite AI, è a tutti gli effetti un abuso sessuale digitale.

Cosa si può fare, concretamente per limitare e contrastare questo fenomeno

Per i genitori e gli educatori, le linee guida di organizzazioni come Internet Matters, Safe AI for Children e altri centri specializzati suggeriscono alcune azioni immediate:

parlare apertamente con propri i ragazzi del tema del consenso e delle conseguenze dei deepfake, evitando approcci moralistici ma spiegando la gravità legale e umana che tali azioni possono comportare;

usare i controlli parentali per limitare l’accesso ad app e siti inappropriati, controllando periodicamente le installazioni sugli smartphone dei propri figli;

invitare i giovani a riflettere prima di condividere immagini personali e a ridurre al minimo la pubblicazione di foto intime o in costume in quanto sono oggetto di maggior interesse per l’effetto che le app possono generare;

in caso di vittimizzazione, salvare le prove senza diffonderle, segnalare il contenuto alle piattaforme e alle autorità competenti o alla scuola.

Per piattaforme e store, i report del TTP e di altri osservatori indicano la necessità di:

rafforzare i sistemi di revisione, integrando controlli specifici per app che offrono “nudify”, “undress” e funzionalità simili;

rimuovere in modo proattivo le applicazioni che violano le policy, impedendo il semplice rebranding con un nuovo nome;

introdurre verifiche di età più solide, almeno per le app a rischio elevato;

collaborare con enti indipendenti per audit periodici sull’offerta degli store.

Infine, per legislatori e regolatori, la sfida è costruire un quadro che tenga insieme libertà di espressione, sviluppo dell’AI e protezione effettiva delle persone – soprattutto dei minori – da abusi che lasciano cicatrici profonde pur non avendo mai richiesto un contatto fisico.

Una scelta collettiva, non solo tecnologica che deve far riflettere e dare spunti attivi di riflessione
Le app che “spogliano” chiunque a partire da una foto mostrano il lato più oscuro di un’AI senza freni: trasformano un semplice scatto in un potenziale strumento di umiliazione, ricatto e violenza. La tecnologia, da sola, non può essere “cattiva” o “buona”; a fare la differenza sono le scelte di chi la progetta, la distribuisce e la utilizza per scopi non corretti.

La specificità delle leggi e policy è indispensabile, ma da sola basta. Serve un cambio culturale, soprattutto sensibilizzare i più giovani: passare dall’idea che questi strumenti siano “solo un gioco” alla consapevolezza che dietro ogni immagine alterata c’è una persona reale, con emozioni e diritti che meritano rispetto e che le conseguenze di una creazione di un’immagine falsa possono rovinare la vita di una persona, solamente in questo modo sarà possibile limitare e prevenire la diffusione di questo fenomeno che si espande nel mondo digitale.

Nota dell’autore: L’ immagine presente in questo articolo è un’illustrazione concettuale generata attraverso l’uso del software di Intelligenza Artificiale Google Gemini e non ritrae persone reali.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

CAPTCHA ImageChange Image

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.