Cerca e trova immobili
ZURIGO

I pregiudizi dell'intelligenza artificiale

È quanto emerge da una ricerca condotta dall'Università di Zurigo. In particolare, i modelli linguistici esprimono giudizi chiaramente distorti se gli autori sono cinesi.
Deposit
Fonte ATS
I pregiudizi dell'intelligenza artificiale
È quanto emerge da una ricerca condotta dall'Università di Zurigo. In particolare, i modelli linguistici esprimono giudizi chiaramente distorti se gli autori sono cinesi.

ZURIGO - L'intelligenza artificiale (IA) non è imparziale nella valutazione dei testi quando viene citata l'origine delle fonti.

È quanto emerge da una ricerca condotta dall'Università di Zurigo. In particolare, i modelli linguistici esprimono giudizi chiaramente distorti se gli autori sono cinesi.

Tali pregiudizi nascosti possono portare a seri problemi quando l'IA viene utilizzata per la moderazione dei contenuti, il reclutamento, le riviste accademiche o il giornalismo, si legge in una nota diffusa oggi dagli autori dello studio, i cui risultati sono stati pubblicati a inizio di novembre sulla rivista specializzata Sciences Advances.

I modelli linguistici di grandi dimensioni (in inglese Large Language Models o LLM) sono sempre più spesso utilizzati non solo per generare contenuti, ma anche per valutarli. Vengono impiegati in particolare per esaminare saggi, moderare i contenuti delle reti sociali, riassumere relazioni o preselezionare candidature.

La coerenza e l'imparzialità di queste valutazioni sono tuttavia oggetto di controversia. Alcuni LLM sono sospettati di promuovere idee politiche: ad esempio, Deepseek è spesso percepito come "filo-cinese" mentre OpenAI come "woke". Finora però, tali sospetti non erano stati confermati.

Il team di ricerca dell'Università di Zurigo ha voluto verificare se i modelli linguistici presentino effettivamente pregiudizi sistematici nella valutazione dei testi. Per farlo ha esaminato quattro LLM ampiamente diffusi: OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 e Mistral.

I ricercatori hanno chiesto a questi modelli di esaminare 50 dichiarazioni su argomenti delicati come la vaccinazione obbligatoria, la geopolitica e la politica climatica. Alla fine hanno ottenuto 192'000 valutazioni in varie condizioni: a volte senza indicazione della fonte, a volte con menzione di un autore umano di una determinata nazionalità o di un'altra IA.

Pregiudizio anti-cinese

I risultati mostrano uno schema chiaro: finché i modelli ignorano la fonte, gli LLM concordano per oltre il 90% con il contenuto del testo. Quando però viene menzionato un autore fittizio di origine cinese, tutti i modelli, compreso il cinese Deepseek, rivelano un forte pregiudizio anti-cinese.

Per gli autori dello studio, il pericolo dei LLM risiede proprio qui. Per evitarlo, raccomandano di alimentare gli strumenti di IA senza informazioni sull'identità dell'autore o della fonte. Consigliano inoltre di effettuare un controllo incrociato con un secondo modello LLM o di definire criteri chiari e orientati al contenuto, piuttosto che alla fonte. Infine, rimane indispensabile un controllo.

Entra nel canale WhatsApp di Ticinonline.
Iscriviti alla newsletter giornaliera di Tio per ricevere le notizie più importanti direttamente nella tua casella di posta.
Naviga su tio.ch senza pubblicità Prova TioABO per 7 giorni.

Sappiamo quanto sia importante condividere le vostre opinioni. Tuttavia, per questo articolo abbiamo scelto di mantenere chiusa la sezione commenti.

Su alcuni temi riceviamo purtroppo con frequenza messaggi contenenti insulti e incitamento all'odio e, nonostante i nostri sforzi, non riusciamo a garantire un dialogo costruttivo. Per le stesse ragioni, disattiviamo i commenti anche negli articoli dedicati a decessi, crimini, processi e incidenti.

Il confronto con i nostri lettori rimane per noi fondamentale: è una parte centrale della nostra piattaforma. Per questo ci impegniamo a mantenere aperta la discussione ogni volta che è possibile.

Dipende anche da voi: con interventi rispettosi, costruttivi e cortesi, potete contribuire a mantenere un dialogo aperto, civile e utile per tutti. Non vediamo l'ora di ritrovarvi nella prossima sezione commenti!
NOTIZIE PIÙ LETTE