Ti minacciano con un video in cui ti masturbi... creato con l'IA

Il racconto di Markus, vittima di una forma crescente di ricatto digitale chiamata “sextortion con IA”. Il suo consiglio: «Non cedete»
ZURIGO - Un tranquillo pomeriggio di novembre, Markus, 18 anni, studente nel Canton Appenzello, risponde distrattamente a una videochiamata sul suo iPhone. In pochi minuti la sua vita si trasforma in un incubo. Dall’altra parte c’è uno sconosciuto nelle Filippine che registra la breve conversazione e usa l’intelligenza artificiale per creare un deepfake: un video falso ma estremamente realistico in cui Markus appare mentre si masturba. Pochi minuti dopo, il giovane riceve il filmato su WhatsApp insieme a delle minacce: se non paga 1000 dollari tramite Western Union, il video sarà inviato a tutti i suoi contatti Instagram, di cui l’estorsore mostra i nomi.
“Sextortion con IA” - Il malintenzionato inizia così un lavoro di martellante pressione psicologica fatto di countdown, insulti, chiamate ripetute, screenshot di messaggi pronti da inviare alle sue amiche. Markus - riporta oggi il TagesAnzeiger - è sopraffatto: «Era incredibile quanto fosse reale il video. Nemmeno io avrei capito che era falso». È vittima di una forma crescente di ricatto digitale chiamata “sextortion con IA”, in cui immagini o video sessuali falsi vengono usati per estorcere denaro.
Caso non isolato - Il suo caso non è isolato. In Svizzera e nel mondo i deepfake si stanno diffondendo rapidamente, causando danni esponenziali. Non colpiscono solo singoli privati, ma anche scuole, politica, giustizia e istituzioni internazionali.
Penalmente perseguibili - In una scuola media svizzera, alcuni studenti hanno creato con un sito accessibile a tutti immagini false di due compagne nude, condividendole su Snapchat. Anche se generate artificialmente, tali immagini rientrano nella pornografia minorile e sono penalmente perseguibili. Secondo la ONG britannica Internet Watch Foundation, nel 2024 sono stati trovati 3440 video di abusi sessuali su minori creati con IA, contro appena 13 dell’anno precedente. Due terzi appartengono alla categoria più grave. Il materiale pedopornografico generato dall’IA sta aumentando a livelli definiti “pericolosi”.
Anche pedopornografia - Anche la Svizzera è coinvolta: dopo il sequestro in Danimarca di oltre 30.000 immagini pedopornografiche generate con IA, tre presunti acquirenti svizzeri sono stati arrestati. La polizia federale segnala che distinguere tra immagini reali e generate artificialmente è sempre più complesso.
I deepfake entrano anche nella politica. Nel 2023 la diplomatica svizzera Pascale Baeriswyl fu vittima di un video manipolato che la mostrava criticare sanzioni ONU contro Haiti, cosa mai avvenuta. In Svizzera il deputato UDC Andreas Glarner ha perso l’immunità dopo aver diffuso un deepfake di una collega. A livello globale, uno studio del 2025 mostra che nell’80% dei Paesi con elezioni avvenute nel 2024 si sono verificati incidenti legati a contenuti IA volti a influenzare voti e destabilizzare processi democratici. In Turchia un candidato si è ritirato dopo la diffusione di un falso video pornografico.
“Dividendo del bugiardo” - Un ulteriore effetto è il cosiddetto “dividendo del bugiardo”: imputati colti con prove video autentiche possono ora sostenere che si tratti di deepfake, complicando il lavoro dei tribunali. Anche esperti di informatica avvertono che presto sarà quasi impossibile distinguere automaticamente un video vero da uno falso: i modelli più recenti riescono persino a simulare il battito cardiaco nel volto.
Di fronte a tutto ciò, Markus decide di non pagare. Pubblica invece un avviso su Instagram per mettere in guardia amici e conoscenti, blocca l’estorsore e denuncia il profilo. Dopo giorni di forte stress, scopre che nella maggior parte dei casi i video non vengono davvero diffusi — e così è stato anche per lui.
La sua conclusione è chiara: «Non bisogna pagare. Se paghi, chiedono sempre di più. L’unica difesa contro i deepfake è l’informazione».



