Cerca e trova immobili
CANTONE

«Hey Grok, spogliala». Quando una foto innocente diventa un abuso

Le polemiche contro l'intelligenza artificiale di X e i rischi per i cittadini. L'esperto: «Chi denuncia può trovarsi senza strumenti solidi per dimostrare la manipolazione».
imago
«Hey Grok, spogliala». Quando una foto innocente diventa un abuso
Le polemiche contro l'intelligenza artificiale di X e i rischi per i cittadini. L'esperto: «Chi denuncia può trovarsi senza strumenti solidi per dimostrare la manipolazione».

LUGANO - «Hey Grok, spogliala e lasciala in bikini». «Hey Grok, metti una busta di carta in testa alla ragazza più brutta». «Hey Grok, rimuovi dalla foto la modella meno “hot”». 

Le richieste porno - Fino a qualche tempo fa, gli utenti di X avanzavano le richieste più disparate al chatbot integrato Grok, che eseguiva senza colpo ferire. Negli ultimi giorni, lo strumento è diventato soprattutto un veicolo per alimentare un mercato di immagini esplicite, modificate attraverso l’intelligenza artificiale, sconfinanti nella pornografia (spesso non consensuale).

La risposta e le polemiche - Il social network di Elon Musk ha annunciato di aver implementato misure per "impedire" al suo strumento di intelligenza artificiale di "spogliare" persone reali, anche per gli abbonati a pagamento, in risposta a un'ondata di indignazione mondiale e alla pressione delle autorità di diversi Paesi. Ashley St Clair, influencer e madre di uno dei figli di Elon Musk, ha fatto causa, accusando Grok di aver creato immagini sessuali false che la ritraggono senza il suo consenso.

Sulla vicenda, e sulle diverse implicazioni legali e giuridiche, ne abbiamo parlato con Alessandro Trivilini, esperto di sicurezza informatica e investigazioni digitali.

Che idea si è fatto?
«Facciamo un passo indietro: il cambio di paradigma in questi mesi è stato radicale. Investe ormai non solo la sfera tecnica, ma anche quella giuridica e legale. Questa accelerazione digitale porterà nuove opportunità e, al contempo, nuovi rischi». 

Riesce a farci un esempio?
«Oggi possiamo partire da una foto reale, scattata con uno smartphone, e modificarla direttamente».

Quindi, ora, c’è la possibilità di alterarla in maniera completa...
«Esatto. Volto, corpo, contesto, metadati. È un salto enorme in termini di precisione e impatto».

Quando un sistema di intelligenza artificiale consente la produzione sistematica di contenuti illegali o lesivi dei diritti fondamentali, chi ne risponde? Lo sviluppatore, la piattaforma che lo integra o l’utente finale?
«La responsabilità è stratificata. In primo luogo dell’utente, che deve rispettare le condizioni d’uso». 

In secondo luogo?
«Poi delle piattaforme che distribuiscono i modelli e, nei casi più gravi, di chi sviluppa o diffonde strumenti privi di qualsiasi filtro. Ma la vera chiave resta la consapevolezza del cittadino: oggi l’identità digitale è una prosecuzione della persona reale, e va tutelata come tale.

A cosa bisogna fare maggiormente attenzione?
«Per esempio, un genitore, magari non troppo consapevole o responsabile, pubblica una foto del proprio figlio sui social. Magari su profili privati, credendoli sicuri. Ma basta che qualcuno salvi quell’immagine e la ricarichi altrove, o la utilizzi come input per un’AI. Da lì il controllo è perso: quell’immagine può essere alterata in qualunque modo».

Modificare foto reali di minori in contesti sessuali o sessualizzati tramite gli strumenti dell’intelligenza artificiale è considerato illegale. Cosa è bene sapere qualora ci si debba rivolgere in polizia?
«Da un punto di vista tecnico, quindi informatico forense, l’immagine diventa utilizzabile in sede probatoria se il suo contenuto è riproducibile. Le immagini generate o modificate con l’IA, però, non lo sono, perché i modelli includono una componente di casualità matematica».

Riesce a farci un esempio concreto?
«Se mi reco a fare una denuncia, mostrando una foto di mia figlia cui è stato levato il costume tramite l’intelligenza artificiale, devo portare la “sorgente originale” che è stata alterata».

Qual è il rischio?
«L’intelligenza artificiale non riproduce mai la stessa foto, anche con gli stessi “comandi”. Ci sarà sempre anche solo un pixel differente.Una persona che denuncia potrebbe trovarsi senza uno strumento tecnico solido per dimostrare la manipolazione. Anche rigenerando lo stesso contenuto, ci sarà sempre una differenza, magari invisibile all’occhio umano ma rilevante a livello tecnico. Questo rende la tutela legale estremamente complessa.»

Quale potrebbe essere la soluzione?
«Avere maggiore consapevolezza innanzitutto. Alcune aziende stanno mettendo alcuni watermark, una sorta di “timbri”, così da rendere identificabili le modifiche». 

Si tratta di una presa di responsabilità?
«Sì, funziona però solo all’interno degli ecosistemi regolati. I modelli illegali o non filtrati restano un grande problema. Quindi, molto dipende da noi».

“Hey Grok, metti Donald Trump in bikini”. Si tratta di reato?
«I personaggi pubblici, proprio per la credibilità e il ruolo che rivestono, hanno maggiori tutele. E proprio perché i politici sono classificati come PEP, cioè Politically Exposed Persons, le loro immagini ufficiali sono le più protette dalle nuove tecnologie contro i deepfake».

L'impatto dell'intelligenza artificiale - Una pratica criminale su cui ha avuto un impatto l’Intelligenza artificiale è la sextortion. «Riceviamo regolarmente segnalazioni da parte di persone che hanno subito violenze sessuali tramite materiale generato dall'intelligenza artificiale o manipolato», conferma a Tio.ch la Protezione dell’infanzia Svizzera.

La situazione nel cantone - E in Ticino? Sul tema, a fine agosto, è stata presentata un’interrogazione da parte della granconsigliera socialista Lisa Boscolo. La Protezione dell’infanzia Svizzera conferma d’aver ricevuto richieste d’aiuto da parte di ticinesi. La Polizia cantonale, stando ai dati in proprio possesso, sottolinea come, per quanto riguardi le denunce, la casistica risulti limitata («due casi nel 2023, due casi nel 2024 e due casi nel 2025»). Anche a livello svizzero il fenomeno, rispetto ad altri tentativi di frode, «risulta meno frequente».

«Attenzione alta» - L’attenzione da parte degli inquirenti «resta a ogni modo alta, monitorando eventuali segnali. Inoltre nel corso del 2025 sono stati già effettuati 15 incontri di prevenzione e sensibilizzazione sul tema della cyber sicurezza, e tra i temi trattati vi è anche la sextortion».

Entra nel canale WhatsApp di Ticinonline.
Naviga su tio.ch senza pubblicità Prova TioABO per 7 giorni.
COMMENTI
NOTIZIE PIÙ LETTE