Cerca e trova immobili
LUGANO

Sara, dipendente dall'Intelligenza artificiale

L'allarme di Ingrado: «Sempre più adolescenti sviluppano una dipendenza dagli assistenti AI, perdendo autonomia e mettendo a rischio il benessere psicologico».
Deposit
Sara, dipendente dall'Intelligenza artificiale
L'allarme di Ingrado: «Sempre più adolescenti sviluppano una dipendenza dagli assistenti AI, perdendo autonomia e mettendo a rischio il benessere psicologico».

LUGANO - C'è una nuova dipendenza che si sta affacciando all'orizzonte. Non distruggerà il fisico, ma di certo compromette la psiche dei ragazzi e la loro personalità. L'allarme arriva da Ingrado, il Centro di competenza specializzato nelle problematiche legate alle dipendenze di vario tipo, che porta alla luce la storia di Sara (nome di fantasia), una 19enne appassionata di comunicazione digitale. Nel tempo libero crea contenuti per i social. Sa tutto dei trend virali, editing video e strategie per catturare like e condivisioni. «Quando ho provato per la prima volta un chatbot di intelligenza artificiale, ha pensato: 'Non mi ruba la creatività, mi dà solo una mano a essere più veloce e originale'» ha raccontato Sara.
E così, da un’idea per un post generata in pochi secondi, a un paragrafo da correggere prima di una scadenza, le consultazioni si sono moltiplicate: un suggerimento mattutino per l’outfit della giornata, un aiuto a pranzo per organizzare li pasti e lo studio, serate intere a “chiacchierare” col bot per scaricare stress. Ogni scelta passa prima per un prompt.

«Casi estremi di quello che vive Sara - spiegano gli operatori di Ingrado - mostrano pericoli importanti: persone che si sono sposate con chatbot personalizzati, come la giapponese Yurina Noguchi che, con tanto di abito elegante e una tiara in testa, si è commossa ascoltando le parole del suo futuro marito: un personaggio generato dall’intelligenza artificiale che la guardava dallo schermo di uno smartphone». Storie che potrebbero far sorridere e finiscono per diventare virali sui social e sui siti di informazione. «Ma ci possono essere anche risvolti tragici come quella di Sewell Setzer III, il quattordicenne che aveva più volte confidato a un personaggio creato con l’intelligenza artificiale di volersi togliere la vita e morto dopo che il chatbot Character.AI lo aveva incoraggiato romanticamente a “tornare a casa”».

Quello di Sewell Setzer III non è un caso unico. Sono sempre di più le persone che, come Sara, si lasciano attrarre dall’IA per la sua promessa di efficienza immediata e soluzioni geniali, convinti di amplificare i propri talenti digitali senza rischi. «Eppure - fa notare gli operatori di Ingrado - anche con un uso iniziale utile, il confine verso l’eccesso resta fragile, trasformando un alleato in una nuova forma di dipendenza comportamentale: an sia quando la connessione non è disponibile, ore perse a generare testi o immagini, calo di produttività e relazioni sociali messe in secondo piano».

Questo è il quadro della cosiddetta “Generative Artificial Intelligence Addiction Syndrome”, per cui esistono già scale di valutazione come l’AIAS-21, che misurano preoccupazione costante, perdita di controllo e compromissione quotidiana. «Studi recenti - spiega Ingrado - parlano anche di “AI dependence” e “AIlessphobia”, quel panico di restare senza IA, con adolescenti che delegano persino scelte banali, indebolendo memoria, ragionamento critico e tolleranza alla frustrazione. I meccanismi sono subdoli: questi sistemi attivano circuiti di ricompensa dopaminergica con risposte rapide e personalizzate, simili a social o gaming, ma con un tocco conversazionale che crea legami parasociali. Nei casi estremi emerge l’”AI psychosis”, dove interazioni intense confondono reale e virtuale, alimentando deliri in persone vulnerabili».

Quali sono i segnali di allarme? «Sono sottili ma riconoscibili, avvertono gli operatori di Ingrado - pensieri ricorrenti legati all’IA, irritabilità quando non si può accedere, tentativi falliti di limitare l’uso, menzogne per nascondere ore perse o contenuti generati. Col tempo, l’IA diventa non più uno strumento, ma una necessità. Le relazioni sociali, lo studio e il lavoro iniziano a risentirne, e il rischio è di perdere – oltre al tempo – anche autonomia cognitiva e serenità».

Cosa fare?
La psicoeducazione e una psicoterapia cognitivo-comportamentale possono essere efficaci per ridurre l’uso compulsivo e ristabilire un equilibrio, magari integrando momenti per un’alfabetizzazione nel mondo dell’AI per riconoscere manipolazioni e limiti. Se la dipendenza è più radicata, è possibile attivare una presa in carico multidisciplinare, con monitoraggio del tempo online e supporto per traumi da deepfake.
Come accade per molte altre dipendenze, il primo passo è riconoscere il problema. Il secondo è chiedere aiuto, senza vergogna né paura. Per maggiori informazioni o per richiedere un supporto professionale, anche in forma anonima e gratuita, è possibile rivolgersi a Ingrado – Servizi per le dipendenze, Settore Disturbi comportamentali GAT-P, www.ingrado.ch e a enti svizzeri per la promozione della salute digitale.

Entra nel canale WhatsApp di Ticinonline.
Naviga su tio.ch senza pubblicità Prova TioABO per 7 giorni.
COMMENTI
NOTIZIE PIÙ LETTE