“Quel nudo fake mi ha rovinato la vita”

revenge porn fake

Si moltiplicano i casi di app e bot che tramite l’intelligenza artificiale permettono di “spogliare” normali foto prese dai social. A farne le spese sono spesso le donne, anche minorenni, che si trovano a fronteggiare un trauma inatteso. Come riconoscere un nudo fake e come agisce la Polizia postale per bloccare il fenomeno

 

Luna è una ragazza di Roma, ha 13 anni, va alle scuole medie, ha una vita come tante a quell’età. Da un giorno all’altro si chiude nella sua stanza e si rifiuta di uscire e di andare a scuola. Ci vogliono diversi giorni prima che riesca a confidare a un’amica cosa la sconvolge. Alcune foto in cui appare nuda stanno passando da uno smartphone all’altro dei suoi compagni di classe e persino di perfetti sconosciuti. La vergogna è tanta ma quello di Luna non è uno dei tanti casi di revenge porn che a volte spingono la vittima a farsi del male. Luna quelle foto, giura, non le ha mai fatte. Il viso è il suo ma è un viso preso da una foto qualsiasi condivisa sui suoi social e manipolata in modo che la ragazza sembri nuda.  Una foto che neanche un occhio attento riuscirebbe a distinguere da uno scatto vero.

Un fenomeno che colpisce anche i vip

Luna ha parlato con i tre conoscenti che riteneva responsabili della foto fake minacciandoli di denunciarli se non avessero tolto dalla circolazione quelle foto, e pensa di aver risolto così. Ma al di là dell’epilogo, la sua è una storia che riguarda sempre più donne nel mondo. Recentemente anche la cantante pop Rose Villain ha raccontato di aver scoperto che una sua foto manipolata per renderla nuda circolava sul web e ha avuto un pensiero per le tante ragazze giovani a cui capita che possono non avere le spalle abbastanza larghe per sostenere l’imbarazzo e finire per vergognarsi di qualcosa di cui non hanno alcuna responsabilità.

Come funzionano i bot di Telegram per “spogliare”

Il fatto che i deepfake (così si chiama la tecnica di manipolazione delle immagini che consiste nell’applicare un volto a un altro corpo, reale o elaborato) porno siano sempre più diffusi, soprattutto tra gli adolescenti, è dovuto alla proliferazione di siti, app e soprattutto i bot su Telegram, nati apposta. Si tratta di software che sfruttando l’intelligenza artificiale “spogliano” automaticamente il soggetto della foto, inserito dall’utente. Una recente analisi di Wired sugli utenti di Telegram che partecipano alla creazione di contenuti espliciti non consensuali ha rivelato l’esistenza di almeno 50 bot che affermano di poter generare foto o video espliciti con un paio di clic. “Questi bot hanno diverse funzionalità: molti possono “rimuovere i vestiti” dalle foto, mentre altri sembrano in grado di creare immagini che ritraggono persone in atti sessuali”.

Una prova gratis…

E anche a noi è bastato poco per trovarli su Instagram. Inutile citare i nomi, perché proprio per sottrarsi a cancellazione, sequestri e incriminazioni, cambiano continuamente denominazione. Ma il meccanismo è molto simile tra uno e l’altro: generalmente la prima foto viene offerta come prova gratuita (magari sfocata o nella versione in intimo) e per passare alla versione premium bisogna pagare o una tantum o un abbonamento mensile o acquistare un credito che viene scalato ad ogni foto manipolata. Si parla di pochi euro, al massimo una o due decine di euro, ma sufficienti a creare immagini che costituiscono un reato, soprattutto se diffuse. Non a caso, in maniera furbesca, gli amministratori di questi bot inseriscono sempre un disclaimer in cui invitano gli utenti a non utilizzarli per modificare foto di persone non consenzienti.

Non conosci il Salvagente? Scarica GRATIS il numero con l'inchiesta sull'olio extravergine cliccando sul pulsante qui in basso e scopri cosa significa avere accesso a un’informazione davvero libera e indipendente

Sì! Voglio scaricare gratis il numero di giugno 2023

Polizia postale: ecco come ci vengono segnalati questi casi

Maria Rosaria Romano, prima dirigente della Polizia di Stato e direttrice della seconda divisione del servizio Polizia postale che si occupa di tutti i reati contro la persona, racconta al Salvagente: “Quasi sempre le segnalazioni, se le immagini riguardano minori, partono da una denuncia acquisita da parte dei nostri centri operativi di sicurezza cibernetica, ne abbiamo 18 su tutto il territorio nazionale. Quasi sempre sono genitori che lamentano o comunque segnalano che il proprio figlio è stato coinvolto in un fenomeno del genere. La vittima segnala perché ha necessità che quella foto venga in qualche maniera rimossa, oppure si cerca in qualche maniera di contenere gli effetti della divulgazione incontrollata, quindi una condivisione che può avere gli aspetti di danno in vari contesti, il contesto personale, il contesto magari professionale, se riguarda degli adulti”.

Il senso di vergogna, la paura di uscire di casa

Maria Rosaria Romana spiega: “Si verifica un grosso coinvolgimento personale della vittima, che si sente violata della propria privacy, non si riconosce in quel contenuto e quindi fondamentalmente c’è un effetto psicologico di grande vergogna perché questo fenomeno online per la propria pervasività effettivamente mette quella persona in un contesto di grande giudizio, la gente si sente anche spesso violata in questa privacy, si sente osservata, quando esce di casa continua ad avere la sensazione di essere nuda, di ricevere sguardi di un certo tipo da persone che potrebbero aver visto quella immagine, e dunque la vittima ha voglia di rintanarsi nella propria privacy, chiudersi rispetto all’esterno”.

Lo tsunami di hate speech e la vittimizzazione secondaria

Senza dimenticare che la circolazione di una foto manipolata si porta dietro altre forme di molestia: “Se l’immagine è stata utilizzata in un contesto di social – spiega la dirigente della Polizia postale – questo può generare dei commenti sgradevoli, può portare delle conseguenze in termini di hate speech, linguaggio d’odio, disprezzo, scherno, e quindi la cosiddetta vittimizzazione secondaria”.

Come la polizia risale al creatore dell’immagine fake

Per aiutare la persona, la Polizia si muove su due fronti, identificare chi ha creato la foto manipolata e bloccarne o almeno limitarne la diffusione. “Si parte dal soggetto segnalato, quindi fondamentalmente chi ha pubblicato, e si va a ritroso interpellando le persone coinvolte per capire chi ha modificato e immesso per primo la foto in circolazione” spiega la dirigente della Polizia. Purtroppo, al contrario che per le foto scattate da un qualsiasi dispositivo digitale, per le immagini manipolate con Ia o software di altro tipo spesso non esistono metadati in grado di identificare l’origine del manufatto. In Senato è in discussione un Dl che prevede che tutte le immagini manipolate debbano avere una sorta di “filigrana” virtuale, che renda possibile risalire alle circostanze di manipolazione, e che venga sempre reso esplicito l’uso di Ia per un’immagine pubblicata.

Fermare o limitare la diffusione

Nel frattempo, la polizia utilizzando software e intuito lavora per risalire al colpevole. E soprattutto, per bloccare la diffusione dell’immagine. E se nei casi di personaggi famosi, l’esempio più famoso è il porno deepfake della star di Hollywood Scarlet Johansson, la diffusione è così ampia e rapida da rendere praticamente impossibile la cancellazione totale dal web e dai social, nei casi più circoscritti si riescono ad ottenere risultati.n”Alle persone comuni in qualche modo – spiega Romano – noi riusciamo a restituire la serenità con la rimozione o con il contenimento della pubblicazione, perché se la pubblicazione è avvenuta nella stretta cerchia dei soggetti, magari per motivi futili, poiché c’è il coinvolgimento di condotte penalmente rilevanti, riusciamo a contenere. È ovvio che non restituiamo, se non partendo dalla rimozione di quel materiale, quel trauma correlato a quello che si è subito”.

Il ruolo delle piattaforme social

Per quanto riguarda la rimozione, la dirigente ci tiene sottolineare che per un’azione efficace serve anche la collaborazione delle piattaforme e dei social in cui circola: “Per qualsiasi attività di polizia giudiziaria che intervenga su piattaforme è necessario che ci sia un decreto motivato, notificato alla piattaforma. Va detto che ormai tutte le maggiori piattaforme si sono dotate di meccanismi di segnalazione di abusi, accessibili alle singole persone”.

La responsabilità penale si estende anche a chi fa circolare l’immagine

Per quanto riguarda la responsabilità penale, è importante chiarire che a rischiare una incriminazione per revenge porn, sostituzione di persona o diffamazione, non è solo chi crea l’immagine ma anche chi consapevolmente, con dolo, la diffonde. E, nello specifico, in caso di immagini intime di minorenni il reato è diffusione di pedopornografia e vale anche se a diffonderle è un coetaneo.

I software per smascherare le foto taroccate

Ci siamo chiesti se ad oggi esistano software affidabili e disponibili per chiunque in grado di segnalare inequivocabilmente che un’immagine o un video siano stati modificati, per provare a spegnere il fuoco della condivisione pruriginosa sin da subito. Abbiamo chiesto a Marco Ramilli fondatore della start up IdentifAI, che utilizza proprio l’intelligenza artificiale per smascherare le manipolazioni. “Abbiamo studiato – spieg Ramilli – dei modelli di intelligenza artificiale che chiamiamo degenerativi, cioè è l’opposto dei generativi. I nostri modelli ricevono in input un’immagine, un video o un audio, e vanno a fare un lavoro inverso rispetto a quello generativo (che serve a produrre un’immagine a partire da un input, ndr), calcolando la probabilità delle sequenze dei vari pixel senza entrare nel contesto della foto”. Detto in altre parole, il software usato da IdentifAI dopo essersi allenato su decine di milioni di immagini, è in grado di fare un calcolo sul tipo di sequenza di pixel di una immagine e capire se con molta probabilità si tratta di una sequenza frutto di un modello artificiale o di una normale fotografia non rielaborata.

Un grado di precisione alto ma non risolutivo

Ma con che precisione? “A giugno abbiamo fatto un test con un ente internazionale, per un contest scientifico, e siamo arrivati nella top 5 con un grado di precisione del 88%. Da test recenti interni operati da noi siamo arrivati attorno al 91%”. Molto ma non sufficiente per poter essere utilizzato formalmente in caso di processi. Almeno non con la legislazione attuale. Ad oggi, IdentifAI è pensata per collaborare con aziende, come banche e compagnie telefoniche per verificare se nei processi di riconoscimento a distanza una persona stia utilizzando foto manipolate, oppure “per permettere ai talent scout di alcune squadre di calcio di verificare se il video-provino del giovane talento non sia stato elaborato per farlo apparire più forte”, spiega il fondatore, “ma stiamo ragionando sulla possibilità, dal prossimo anno, di renderlo accessibile anche ai singoli cittadini”.

I consigli per adeguare le proprie abitudini a un mondo di “squali”

Maria Rosaria Romano, ad ogni modo, dà alcuni consigli, soprattutto ai più giovani, per limitare il rischio di trovarsi in situazioni spiacevoli come queste: “Innanzitutto evitare di diffondere in maniera incontrollata immagini personali o dei propri cari, diffondere vuol dire anche pubblicarle in maniera aperta tale da consentire l’accesso a tutti i soggetti che non fanno parte della cerchia ristretta. E poi bisognerebbe imparare a riconoscere un deepfake, ci sono elementi che ci aiutano. L’immagine può apparire pixelata, sgranata o sfocata in alcuni punti. Nel caso di video gli occhi delle persone possono muoversi a volte in maniera innaturale, la bocca può apparire deformata o troppo grande mentre la persona parla. Ovviamente se si ha il dubbio che un video, un audio, siano un deepfake realizzato all’insaputa dell’interessato, occorre assolutamente evitare di condividerlo”.