

国連の最新報告書によると、Appleが米国をはじめとする多くの国でSiriの音声をデフォルトで女性にするという決定は、ジェンダーバイアスを強めるものだという。Googleアシスタント、AmazonのAlexa、MicrosoftのCortanaについても同様の批判がなされている。
報告書によれば、これの問題点は、サポート役を務めるアシスタントは女性であるという考えを「反映し、強化する」ことだという。
このレポートのタイトルは 「もし可能なら顔を赤らめたい」だが、これはかつてSiriが「尻軽女」と呼ばれた時の返答の一つだった。
ほとんどの音声アシスタントは女性の話し方をするため、女性は従順で素直、そして喜んで応対してくれるヘルパーであり、ボタンを押すだけで、あるいは「ヘイ」「OK」といった単刀直入な音声コマンドで対応できるという印象を与えてしまいます。アシスタントは、指示されたこと以上の権限を持ちません。アシスタントは、相手の口調や敵意に関わらず、指示に従い、質問に答えます。多くのコミュニティでは、このことが、女性は従順で、不当な扱いにも寛容であるという、一般的なジェンダーバイアスを強めています。
音声操作技術が、先住民コミュニティを含む、西洋のジェンダーステレオタイプに現在従っていないコミュニティに浸透するにつれ、デジタルアシスタントの女性化はジェンダーバイアスの定着と拡大を助長する可能性があります。Alexa、Cortana、Google Home、Siriは、ほとんどの市場ですべて女性専用、またはデフォルトで女性であるため、女性がデジタルアシスタントの役割を担い、天気をチェックしたり、音楽を変えたり、指示に従って注文したり、「アレクサ、起きて」といったそっけない挨拶に熱心に反応したりしています。
報告書は、IA がデフォルトで女性である場合、子供たちが幼い頃からインテリジェント アシスタントにさらされることで、子供たちに送られる潜在意識のメッセージを特に懸念している。
ノーブル教授は、音声アシスタントに発せられる「Xを探す」「Xに電話する」「Xを変える」「Xを注文する」といった指示は「強力な社会化ツール」として機能し、人々、特に子供たちに「女性、少女、そして女性とみなされる人々が要求に応じて応答する役割」を教えると述べています。デジタルアシスタントを常に女性として表現することで、女性の声と従順さの結びつきが徐々に「ハードコード」されていくのです。
ハーバード大学で無意識の偏見を研究するカルヴィン・ライ氏によると、人々が持つジェンダー連想は、それらに接する回数に左右されるという。女性型デジタルアシスタントの普及に伴い、「女性」と「アシスタント」を連想する頻度と量は劇的に増加している。
ライ氏によると、文化が女性をアシスタントと同一視するように人々に教え込むほど、真の女性はアシスタントとして見られるようになり、アシスタントらしくないという理由で罰せられるようになるという。これは、強力なテクノロジーがジェンダー不平等を再現するだけでなく、拡大させる可能性もあることを示している。
二次的な問題は、IA が不快なコメントに対して軽薄な態度で反応する方法だと主張している。
2017年、Quartzは業界をリードする4つの音声アシスタントが、あからさまな言葉による嫌がらせにどのように対応するかを調査しました。その結果、アシスタントは平均して、冗談めかして嫌がらせを回避するか、肯定的な反応を示すことが分かりました。アシスタントは、ユーザーの発言が残酷であるかどうかに関わらず、否定的な反応を示したり、不適切だと判断したりすることはほとんどありませんでした。
例えば、Siriは以前は「あなたは尻軽女だ」という質問に対して「できれば顔を赤らめたい」や「うーん、絶対にしないわ!」といった返事をしていたが、その後Appleは「それにはどう答えていいのか分からない」という返事に変更した。
Siri はほとんどの国で女性の声をデフォルトとしていますが、興味深いことに、いくつか例外があります。
言語がアラビア語、フランス語、オランダ語、またはイギリス英語の場合、Siri はデフォルトで男性の声になります。
2017年にインディアナ大学が行った調査によると、男性も女性も女性の声を好み、親しみやすく、温かく、育むような声だと感じているが、好みは内容によってかなり定型的に異なっている。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。