

スタンフォード大学の研究結果に基づき、Siriは人種差別的だと示唆する見出しが見られる可能性は高いでしょう。しかし、現実は少し異なります…
米国科学アカデミー紀要(Proceedings of the National Academy of Sciences)に掲載された研究は、巨大IT企業が開発した音声認識システムには人種的偏りがあり、中でもAppleのシステムは最悪だと結論付けた。Appleの認識エンジンは、 白人が話した単語の23%を誤認識したのに対し、アフリカ系アメリカ人が話した単語の45%を誤認識した。
しかし、 この調査結果には非常に大きな 注意点が 2 つあります。
まず、これはSiri、Alexa、Googleアシスタントなどの実際のシステムのテストではありませんでした。研究者たちは、各社が他社向けに提供した音声認識ツールを使用したと ニューヨーク・タイムズは説明しています。
この調査では、Apple、Amazon、Google、IBM、Microsoftが公開している、誰でも音声認識サービスを構築できる5つのツールをテストしました。これらのツールは、必ずしもAppleがSiriやAmazonがAlexaの開発に使用しているツールと同じではありません。しかし、SiriやAlexaのようなサービスと基盤となる技術や手法を共有している可能性があります。
各ツールは昨年5月下旬から6月上旬にかけてテストされており、現在は動作が異なる場合があります。また、調査では、ツールのテスト当時、Appleのツールは他のツールとは設定が異なっており、テスト前に追加のエンジニアリングが必要だったことも指摘されています。
第二に、システムによって書き起こされたアフリカ系アメリカ人の話し言葉は、研究者がアフリカ系アメリカ人の俗語英語と呼ぶものであり、つまり、多くの俗語が含まれているということだ。
ノースカロライナ州東部、ニューヨーク州西部の中規模都市、そしてワシントンD.C.にある、主にアフリカ系アメリカ人が住む農村地域を拠点とする黒人テスターたちは、言語学者が「アフリカ系アメリカ人方言英語」と呼ぶ英語を話した。これは、都市部やアメリカの他の地域でアフリカ系アメリカ人が時折話す英語の一種である。白人テスターたちはカリフォルニア州におり、一部は州都サクラメントに、残りは300マイル(約480キロ)離れた、主に白人が住む農村地域から来ていた。
同じ俗語を白人やアフリカ系アメリカ人が話した場合には違いは見られなかったため、ここで説明されている偏見はアクセントや声によるものではなく、用語の認識に関するものである。
とはいえ、音声認識システムが一般的なスラングに対してどれほど正確に反応するかを調べるのは理にかなっています。ただ、なぜ各社が実際に利用しているサービスを対象に調査を行わなかったのか、少し疑問に思います。つまり、この調査結果からSiriが人種差別的かどうかがわかるわけではありません。
Siri は最近更新され、COVID-19 に感染している可能性があるかどうかを判断するのに役立つ CDC のアンケートが追加されました。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。