Cerca e trova immobili

FRANCIAUnesco: «Le assistenti vocali rafforzano gli stereotipi di genere»

22.05.19 - 12:23
Secondo una ricerca, le voci femminili preimpostate restituiscono l'immagine di una donna servile e remissiva
Keystone
Unesco: «Le assistenti vocali rafforzano gli stereotipi di genere»
Secondo una ricerca, le voci femminili preimpostate restituiscono l'immagine di una donna servile e remissiva

PARIGI - Le voci femminili preimpostate per gli assistenti vocali - Siri di Apple, Alexa di Amazon e Cortana di Microsoft, ma anche Google Assistente nella versione originale in lingua inglese - rafforzano gli stereotipi di genere. A dirlo è una ricerca pubblicata dall'Unesco, secondo cui le risposte spesso sottomesse o civettuole che vengono date dagli assistenti vocali anche a domande inopportune, volgari o allusive restituiscono l'immagine di una donna servile e remissiva.

Lo studio si intitola "I'd blush if I could", "Arrossirei se solo potessi", che è la risposta fornita fino a qualche tempo fa da Siri a chi la insultava dandole della poco di buono. Attualmente, invece, l'assistente replica: "Non so proprio cosa rispondere".

A sviluppare questi sistemi di intelligenza artificiale sono team composti prevalentemente da uomini (tra i ricercatori in AI, le donne sono solo il 12%), si osserva nell'indagine. I ricercatori evidenziano le potenziali implicazioni negative a lungo termine soprattutto nei bambini, che cresceranno interfacciandosi con gli assistenti vocali.

«Macchine obbedienti e cortesi che fingono di essere donne stanno entrando nelle nostre case, auto e uffici», ha osservato Saniye Gulser Corat, direttrice per l'Uguaglianza di genere all'Unesco. «La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili, e modella il modo in cui le rispondono alle richieste e si esprimono».
 
 

Entra nel canale WhatsApp di Ticinonline.
COMMENTI
 
NOTIZIE PIÙ LETTE