

Apple の最新の機械学習ジャーナル記事では、Siri 音声認識チームが、ユーザーの位置情報を組み込むことで Siri による地域の興味のある場所の名前の理解を向上させる取り組みの概要を共有しています。
Apple は、米国国勢調査局のデータに一部基づき、ユーザーがどこにいるか、どのような POI について質問する可能性が高いかに基づいて、ユーザーをよりよく理解できるように Siri を調整できるようになりました。
Appleは、機械学習自体が長年にわたり一般的な言語の自動音声認識の改善に役立ってきたが、「地元の小さな企業のような名前付きエンティティの認識」がパフォーマンスのボトルネックになっていると述べている。
私たちは、ユーザーの位置情報に関する知識を音声認識システムに組み込むことで、Siri が地元の POI の名前を認識する能力を向上させることにしました。
これは、米国国勢調査局が収集したデータに一部依存して行われます。
我々は、米国国勢調査局の統合統計地域(CSA)[1]に基づいて地理領域を定義します。CSAは、通勤パターンによって測定される経済的および社会的に結びついた隣接する大都市圏で構成されています。米国の人口の80%をカバーする169のCSAがあります。我々は各CSAごとに専用のGeo-LMを構築し、CSAで定義されていないすべての地域をカバーする単一のグローバルGeo-LMを構築します。
ユーザーのCSAを効率的に検索するために、米国国勢調査局[2]が提供するラスター化された地図境界(またはシェープファイル)から得られた緯度経度参照テーブルを保存します。実行時の地理位置情報検索の計算量はO(1)です。
記事では、位置情報に基づいた音声パターンを用いて正しいPOI(興味のある場所)を特定する仕組みについても詳しく説明しています。Siri音声認識チームによると、このアプローチは言語に依存しないため、アメリカ英語以外の地域にも適用できるとのことです。
Siri の改善に必要な専門知識の一部を舞台裏で覗くには、Apple の Machine Learning Journal のエントリ全文をお読みください。
Appleのニュースをもっと知りたい方は、YouTubeで9to5Macを購読してください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。