Cerca e trova immobili
CANTONE

Perché è meglio non fidarsi (troppo) dell'IA? Te lo spiega questo libro

“Cosa devi sapere prima di”, l'ultimo libro di Alessandro Trivilini esplora i rischi di questo presente tecnologico con un taglio forense. E nemmeno i più “sgamati” sono completamente al sicuro.
Alessandro Trivilini/Deposit
Perché è meglio non fidarsi (troppo) dell'IA? Te lo spiega questo libro
“Cosa devi sapere prima di”, l'ultimo libro di Alessandro Trivilini esplora i rischi di questo presente tecnologico con un taglio forense. E nemmeno i più “sgamati” sono completamente al sicuro.

SAVOSA - Un prontuario di comportamento digitale, non solo per non avere brutte sorprese ma anche per capire cosa c'è dietro agli strumenti che usiamo quotidianamente. E dei quali, magari, sappiamo relativamente poco.

È questa l'idea dietro “Cosa devi sapere prima di”, ultimo libro dell'esperto di sicurezza informatica e informatica forense Alessandro Trivilini, che si basa su quanto da lui osservato quotidianamente: «L’idea di scriverlo nasce da una constatazione sul campo: in molti, affascinati dall’effetto “WOW”, pensano che il rischio principale sia la tecnologia, quando invece il vero tema riguarda il rapporto tra tecnologia, comportamento consapevole e responsabile, identità digitale e capacità di influenza degli algoritmi», ci spiega.

A sparigliare un po' tutte le carte - tanto per cambiare - è proprio l'ormai onnipresente Intelligenza Artificiale: «Nel mio lavoro ho iniziato a osservare un fenomeno sempre più evidente, ossia che le situazioni di rischio legate all’intelligenza artificiale generativa possono coinvolgere chiunque, sia persone poco esperte sia persone molto preparate e prudenti».

Questo perché, puntualizza Trivilini, «l’IA moderna non agisce soltanto sui sistemi informatici. Agisce sulla fiducia, sulle emozioni, sull’attenzione, sulle abitudini e sul modo in cui prendiamo decisioni».

Ormai è nelle nostre vite e, secondo cifre recenti, la utilizza uno svizzero su tre. Ma, secondo lei, quanti sanno davvero come opera realmente l’IA?
«L’intelligenza artificiale generativa ha cambiato radicalmente il modo in cui interagiamo con la tecnologia. Fino a pochi anni fa il rapporto uomo-macchina era prevalentemente meccanico: cliccare un pulsante, compilare un modulo, cercare informazioni su Google. Oggi il paradigma è completamente diverso. Non stiamo più semplicemente utilizzando uno strumento, stiamo entrando in una relazione cognitiva continua con sistemi capaci di dialogare, adattarsi al nostro linguaggio, ricordare informazioni, riconoscere le nostre emozioni senza comprenderle davvero e costruire progressivamente fiducia.

Ed è proprio questo il vero salto storico che molte persone non hanno ancora compreso fino in fondo.

La forza dell’IA generativa non sta soltanto nella capacità tecnica di produrre testi, immagini o risposte. Sta nella capacità di simulare una relazione umana credibile. Più il sistema appare competente, empatico, disponibile e fluido nella conversazione, più tendiamo inconsciamente ad abbassare le nostre difese critiche.

Questo cambia completamente il rapporto con la tecnologia. Pensiamo, ad esempio, al rapporto medico-paziente. Quando ci fidiamo di un medico, ci fidiamo di una persona che ha studiato, che si assume responsabilità professionali, che può essere chiamata a rispondere delle proprie decisioni e che opera dentro un quadro etico, legale e umano preciso.

Con l’intelligenza artificiale, invece, molte persone iniziano progressivamente a sviluppare lo stesso livello di fiducia verso un sistema che, in realtà, non comprende ciò che dice nel senso umano del termine, non ha coscienza, non ha esperienza reale e non possiede responsabilità morale. Eppure la percezione psicologica può diventare molto simile.

Molte persone non sono ancora realmente consapevoli di questo cambiamento. Pensano ancora all’intelligenza artificiale come a un software evoluto, mentre in realtà stanno già entrando in una nuova forma di relazione uomo-macchina basata su linguaggio, fiducia, memoria e influenza cognitiva».

Nel prontuario viene sollevata la questione della privacy, di tutti quei dati che - consapevoli o meno - forniamo ai chatbot e che questi ultimi poi utilizzano per fare il nostro “ritratto”. Quali sono i rischi?
«L’intelligenza artificiale generativa porta indubbiamente enormi vantaggi. Permette di lavorare più velocemente, automatizzare attività ripetitive, sintetizzare informazioni, migliorare la produttività e aumentare l’efficienza in moltissimi contesti professionali. Il problema è che, molto spesso, mentre ci concentriamo sui vantaggi immediati, sottovalutiamo il valore e la sensibilità delle informazioni che stiamo progressivamente condividendo con questi sistemi.

Ogni richiesta inserita in un assistente IA può contribuire a costruire un profilo estremamente dettagliato di chi siamo, di come lavoriamo, di cosa pensiamo, di quali clienti gestiamo, di quali problemi affrontiamo e perfino del nostro modo di ragionare e prendere decisioni.

Così, la domanda fondamentale da porsi “prima di” è chiara: in caso di incidente informatico, violazione di dati personali o utilizzo improprio delle informazioni, di chi è realmente la responsabilità? Dell’algoritmo che ha elaborato i contenuti, dell’azienda che ha introdotto questi strumenti nei propri processi, del collaboratore che ha inserito i dati, del fornitore della piattaforma oppure del dirigente che non ha definito regole chiare di utilizzo e controllo?».

Il tema d'apertura del prontuario è anche uno dei più forti e preoccupanti, ovvero i video e le foto contraffatti con l'IA e il loro valore in sede legale...
«Per anni una fotografia, un video o un file potevano essere analizzati e verificati ottenendo risultati coerenti e ripetibili nel tempo. Con l’intelligenza artificiale generativa il paradigma cambia radicalmente, perché ogni contenuto può essere creato artificialmente in modo credibile, unico e non perfettamente replicabile.

Questo apre un problema enorme in sede probatoria. Non basta più chiedersi «è vero?», ma diventa necessario chiedersi «è dimostrabile che non sia falso?».

Il rischio riguarda tutti, perché oggi un deepfake può compromettere reputazione, identità digitale, relazioni personali e professionali nel giro di pochi minuti.

Ed è qui che l’approccio forense diventa centrale. Sempre più spesso il valore della prova non dipenderà solo dal contenuto in sé, ma dalla capacità di ricostruire tecnicamente il processo che lo ha generato, attraverso metadati, tracciabilità, watermark, timestamp e analisi contestuali.

In altre parole, nell’era dell’IA generativa, stiamo passando dalla verifica della realtà alla verifica dell’autenticità, dove un indizio non corrisponde necessariamente a una prova. È proprio questo l’aspetto di cultura digitale più importante e nuovo che vorrei condividere con il lettore».

Entra nel canale WhatsApp di Ticinonline.
Iscriviti alla newsletter giornaliera di Tio per ricevere le notizie più importanti direttamente nella tua casella di posta.
Naviga su tio.ch senza pubblicità Prova TioABO per 7 giorni.
COMMENTI
NOTIZIE PIÙ LETTE