Depositphotos (franckito)
RUSSIA
05.07.2021 - 21:480

Le questioni irrisolte delle tecnologie di riconoscimento facciale

Il loro potenziale di profilazione razziale inquieta i gruppi dei diritti civili

MOSCA - La sempre più ampia diffusione delle tecnologie di riconoscimento facciale porta con sé questioni etiche irrisolte. L'ultimo allarme arriva da ricercatori statunitensi: varie aziende russe del settore hanno sviluppato strumenti per determinare la razza delle persone e ciò sarebbe «fatto apposta per discriminare», secondo i gruppi di attivisti digitali.

I software promossi da quattro dei colossi nazionali del settore - AxxonSoft, Tevian, VisionLabs and NtechLab - sfrutterebbero l'intelligenza artificiale (Ai) per classificare i volti, basandosi sull'etnia o sulla razza percepita. Non ci sono indicazioni che le autorità di Mosca e la polizia abbiano usato tali strumenti per prendere di mira le minoranze, spiega la Thomson Reuters Foundation in una sua inchiesta. AxxonSoft, con sede a Mosca, ha affermato che dopo l'investigazione giornalistica ha disabilitato la sua funzione di analisi dell'etnia, affermando di non essere interessata «a promuovere alcuna tecnologia che potrebbe essere una base per la segregazione etnica».

I rappresentanti delle altre società citate nell'inchiesta hanno espresso scetticismo nella capacità di consentire abusi delle tecnologie da loro sviluppate, ma sono consapevoli degli irrisolti dilemmi etici. VisionLabs ha affermato che il software di analisi dell'etnia è stato sviluppato solo per scopi di ricerca interna. Tutte le tecnologie in questione categorizzano le persone che passano davanti alle loro telecamere in macro-categorie: asiatici, neri, bianchi e indiani. Sono ormai dozzine le aziende attive nel settore, molte delle quali sono cinesi. Ma quelle russe hanno una presenza significativa nel mercato, con ricavi superiori ai 40 milioni di dollari (36,8 milioni di franchi svizzeri).

Le organizzazioni per i diritti civili affermano che la profilazione razziale è comune in Russia e che l'Ai è già stata usata nel corso delle manifestazioni dell'opposizione, per identificare e detenere i manifestanti anti-governativi. «Lungi dall'essere strumenti di sicurezza benigni di cui si può abusare» ha affermato Edin Omanovic di Privacy International, «tali strumenti sono profondamente radicati in alcune delle idee più distruttive dell'umanità e fatti apposta per la discriminazione».


YouTube

Facebook

Instagram

Linkedin

Twitter

TikTok


Copyright © 1997-2021 TicinOnline SA - Tutti i diritti riservati
IMPRESSUM - DISCLAIMER - SEGNALACI - COMPANY PAGES
Disposizioni sulla protezione dei dati  -   Cookie e pubblicità online  -   Diritto all'oblio


Ultimo aggiornamento: 2021-10-20 03:58:46 | 91.208.130.85