Cerca e trova immobili
CANTONE

C'è il sole a Lugano: per l'IA può fare caldo, anche se è inverno

Ecco come funziona l'intelligenza artificiale. L'esperto: «Occhio alle fonti. I fatti vanno sempre verificati. Il rischio? Cadere nella pigrizia»
Imago
C'è il sole a Lugano: per l'IA può fare caldo, anche se è inverno
Ecco come funziona l'intelligenza artificiale. L'esperto: «Occhio alle fonti. I fatti vanno sempre verificati. Il rischio? Cadere nella pigrizia»

LUGANO - L’intelligenza artificiale può sbagliare. Lo abbiamo verificato chiedendo a Gemini informazioni sul Ticino. Ne abbiamo parlato con l’esperto Andrea Emilio Rizzoli, direttore IDSIA USI-SUPSI

Invece di dire “non lo so”, l’intelligenza artificiale tende a dare comunque una risposta, anche se sbagliata. Come mai?
«È il meccanismo con cui funzionano questi sistemi. I modelli di intelligenza artificiale generativa, in particolare i Large Language Model (LLM), si basano su correlazioni statistiche. Vengono processate enormi quantità di testi — per esempio articoli, blog, pagine web, Wikipedia — e imparano a prevedere quale parola è più probabile venga dopo un’altra».

Riesce a farci un esempio?
«Le frasi sono costruite sulla base della probabilità. Se dico “oggi a Lugano splende il sole”, è probabile che la frase continui con “fa caldo”. Ma non è sempre vero: può esserci sole e freddo. Ecco perché il sistema può generare risposte plausibili ma sbagliate. Questo fenomeno è noto come “allucinazione” dell’intelligenza artificiale».

Può anche confondere eventi reali, ma simili?
«Sì, un concerto avvenuto a Locarno può essere spostato a Lugano. Il risultato non è completamente inventato, ma è una ricostruzione sbagliata. Ci sono però ricerche finanziate da diversi grandi gruppi, per esempio Google o Meta, con l’obiettivo di correggere gli errori. Infatti, per certi versi sono stupito che l’algoritmo di Google cada in “inciampi” simili”».

Abbiamo notato anche che facendo la stessa domanda in momenti diversi le risposte cambiano. Come mai?
«Perché questi sistemi hanno una componente probabilistica. Non sono deterministici: basta una piccola variazione — nel contesto, nello stato interno del modello o nei dati — per ottenere una risposta diversa».

Per certi versi, è un po’ come se fosse una roulette?
«Sì, non è completamente casuale, ma c’è una componente di variabilità. Per questo motivo la stessa domanda può generare risposte diverse anche a distanza di poco tempo».

Come si possono ridurre gli errori?
«C’è la cosiddetta retrieval augmented generation: in pratica, il sistema non si limita a generare una risposta, ma la verifica andando a fare il confronto con informazioni da fonti esterne affidabili, come motori di ricerca o database. Questo approccio migliora molto l’accuratezza, ma è più costoso dal punto di vista computazionale e non sempre viene applicato in modo sistematico».

I dati più vecchi sono, di solito, meno disponibili online. Questo incide?
«Sì, molto. Più si va indietro nel tempo, meno informazioni digitali sono disponibili o facilmente accessibili. Questo rende più difficile per il modello ricostruire correttamente eventi passati. Inoltre, non abbiamo trasparenza sui dati usati per addestrare questi sistemi: non sappiamo esattamente quali fonti siano state incluse e con quale peso».

E quest’ultimo punto è un problema?
«Sì. Esistono modelli più “aperti”, sviluppati in ambito accademico, in cui si conoscono i dati, gli algoritmi e i parametri utilizzati. Per esempio Apertus, il sistema addestrato al centro svizzero di calcolo scientifico. Questo permette maggiore controllo e affidabilità, anche se spesso a scapito delle prestazioni. Il tema è andare verso un’intelligenza artificiale più trasparente, affidabile e, se vogliamo, anche più “etica”».

Qual è il rischio principale?
«Che gli strumenti vengano utilizzati in modo indiscriminato, senza consapevolezza dei limiti. L’intelligenza artificiale è molto potente, ma non è infallibile. Le aziende più strutturate con cui collaboriamo ne sono consapevoli e lavorano proprio per gestire questi rischi: sanno di avere molto da perdere se l’intelligenza artificiale viene utilizzata in modo non corretto».

L’IA è utile per riassumere testi o documenti complessi?
«In questo caso funziona molto bene ed è uno degli usi più efficaci. Bisogna però fare attenzione: può tralasciare elementi importanti».

Che consigli darebbe a un utente medio?
«Siamo impegnati in un progetto col Cantone e co-finanziato dalla Fondazione Hasler per capire quali sono le competenze di base da trasmettere agli studenti: l’IA sarà uno strumento sempre più importante nel futuro. Consiglierei di fidarsi, ma non rinunciare mai alla verifica. L’intelligenza artificiale è uno strumento utile, può aiutare a scrivere una bozza o a orientarsi su un tema. Ma i fatti vanno sempre controllati, esattamente come farebbe un buon giornalista. È fondamentale anche prestare attenzione alle fonti: l’IA può attingere a contenuti affidabili, ma anche a informazioni di scarsa qualità. Sta all’utente fare una valutazione critica».

A cosa dobbiamo stare attenti?
«Il rischio principale è diventare pigri, delegando completamente la comprensione di un documento. L’intelligenza artificiale può aiutare, ma non deve sostituire il lavoro umano. Se ci facciamo sostituire del tutto, allora il problema non è la tecnologia, ma come la utilizziamo».

Entra nel canale WhatsApp di Ticinonline.
Iscriviti alla newsletter giornaliera di Tio per ricevere le notizie più importanti direttamente nella tua casella di posta.
Naviga su tio.ch senza pubblicità Prova TioABO per 7 giorni.
COMMENTI
NOTIZIE PIÙ LETTE