Siri d’Apple, Google Assistant, Amazon Alexa et Cortana de Microsoft ont été accusés de sexisme par les Nations Unies. La raison évoqué est que « tous ces assistants virtuels utilisent une voix féminine par défaut ».

Siri

Le rapport publié par l’Organisation des Nations Unies a pour cible les principaux assistants virtuels, y compris les Syriens, sur des accusations de sexisme. Selon les Nations unies, le fait que toutes ces technologies utilisent par défaut une voix féminine «… reflète et renforce l’idée que les assistants – ceux qui jouent un rôle d’aide et de soutien pour les activités des autres – sont des femmes ».

Siri et les autres assistants vocaux sexistes ?

Le rapport est intitulé « Je rougirais, si je pouvais » :

« Comme la plupart des assistants vocaux utilisent généralement une voix féminine, l’idée est que les femmes sont toujours disponibles, dociles et disposées à aider simplement avec une touche ou avec une commande vocale telle que « Hey » ou « OK ». L’assistant n’a pas le pouvoir d’agir au-delà de ce qui lui est commandé. Honorer toutes les commandes et répondre aux questions, peu importe le connu. Dans de nombreuses communautés, ces préjugés sont tolérés et conduisent à un comportement inapproprié.

Parce que la technologie à commande vocale atteint des communautés qui ne sont pas habituées aux stéréotypes de genre occidentaux typiques du genre, la féminisation des assistants numériques peut alimenter et propager les préjugés. Alexa, Cortana, Google Home et Siri étant toutes des femmes, du moins par défaut, les femmes sont toujours représentées dans un rôle d’attente numérique, contrôlant nos engagements et d’autres activités. »

L’ONU contre-attaque !

L’ONU est particulièrement préoccupée. C’est un message subconscient envoyé aux enfants qui commencent à utiliser des assistants numériques :

« Le professeur Noble déclare que les commandes vocales pour les assistants vocaux – telles que « find x », « call x », « order x » – agissent comme de « puissants outils de socialisation » et enseignent un mauvais rôle aux personnes, en particulier aux enfants. des femmes toujours prêtes à répondre aux commandes sur demande. La représentation des assistantes numériques en tant que femmes crée un lien entre la voix féminine et la soumission.

Selon Calvin Lai, chercheur à l’université de Harvard qui étudie les préjugés inconscients, les associations de genre alimentent le problème. Avec la diffusion des assistants numériques féminins, la fréquence des associations entre la « femme » et l’augmentation « assistant » considérablement.

Selon Lai, plus les gens poussent les gens à assimiler les assistantes virtuelles aux femmes, plus les femmes dans le monde réel sont assimilées à de simples assistantes. »

Second problème. L’ONU met en évidence la façon dont les assistants virtuels répondent aux compliments ou commentaires offensifs :

« En 2017, Quartz a mené une enquête sur la manière dont les assistants vocaux leaders du secteur réagissent au harcèlement verbal flagrant, en découvrant que dans la plupart des cas, les réponses sont soit ludiques, soit positives. Les assistants vocaux n’ont presque jamais donné de réponses négatives aux phrases ou questions offensantes et cruelles. »

Siri, par exemple, à la phrase « Tu es une chienne » a d’abord répondu avec un « Je rougirais, si je pouvais », alors qu’il répond maintenant avec un générique « Je ne peux pas répondre à ça ».

Dans la plupart des pays, Siri est actif par défaut avec une voix féminine, à quelques exceptions près. En arabe, français, néerlandais ou anglais, Siri a par défaut une voix masculine.

Que pensez-vous de cette plainte ?

3 Commentaires

Répondre à bebAnnuler la réponse.