Apple、権威ある機械学習カンファレンスで「最優秀論文賞」を受賞c

Apple、権威ある機械学習カンファレンスで「最優秀論文賞」を受賞c
Apple、権威ある機械学習カンファレンスで「最優秀論文賞」を受賞c

Appleが研究者の研究成果の公開を許可した後、昨年末に初の学術論文が発表されました。そして今、その研究は権威ある機械学習とコンピュータービジョンのカンファレンスで「最優秀論文賞」を受賞しました。

Apple に関連して発表された最初の学術論文は 、Ashish Shrivastava、Tomas Pfister、Oncel Tuzel、Josh Susskind、Wenda Wang、Russ Webb、Apple Inc. による「 Learning from Simulated and Unsupervised Images through Adversarial Training」です。全文は、こちらからご覧いただけます。

この AI に関する研究は、この分野で最も著名で影響力のある会議の 1 つとみなされている CVPR (コンピューター ビジョンとパターン認識に関する会議) に提出されました。

覚えておいていただきたいのは、これは Apple が初めて発表した研究であり、CVPR 2017 に提出された 2,600 件を超える論文の 1 つであり、 他の 1 件の論文とともに最優秀論文賞を受賞した という、非常に印象的な成果です。

先月、AppleはApple Machine Learning Journalを立ち上げ、研究成果の公開に向けた取り組みを強化しました 。今週は、ストックホルムで開催されるInterspeech 2017で発表される3つの新しいジャーナル記事も掲載されました。特に興味深いのは、iOS 9、10、11のSiriの音声サンプル比較です(第4巻の一番下に掲載)。

Apple の受賞歴のある研究論文に興味があるけれど、すべてを読みたくないという方のために、概要を以下に示します。

近年のグラフィックス技術の進歩により、合成画像を用いたモデルの学習がより容易になり、高コストなアノテーション処理を回避できる可能性があります。しかしながら、合成画像と実画像の分布のギャップにより、合成画像からの学習では期待通りの性能が得られない可能性があります。このギャップを埋めるため、我々はSimulated+Unsupervised (S+U)学習を提案します。この学習の目的は、シミュレータからのアノテーション情報を保持しながら、ラベル付けされていない実データを用いてシミュレータの出力のリアリティを向上させるモデルを学習することです。我々は、Generative Adversarial Networks (GANs)に似た敵対的ネットワークを用いたS+U学習手法を開発しますが、入力にはランダムベクトルではなく合成画像を使用します。標準的なGANアルゴリズムにいくつかの重要な変更を加え、アノテーションを保持し、アーティファクトを回避し、トレーニングを安定化します。(i)「自己正則化」項、(ii)局所的な敵対的損失、(iii)改良された画像の履歴を用いた識別器の更新です。これにより、非常にリアルな画像が生成できることを、定性的にもユーザースタディによっても実証します。生成された画像は、視線推定と手姿勢推定のモデルをトレーニングすることで定量的に評価します。合成画像を使用する場合と比較して大幅な改善を示し、ラベル付けされた実データなしでMPIIGazeデータセットで最先端の結果を達成しました。

ありがとう、トム!


Apple のニュースをもっと知りたい場合は、YouTube の 9to5Mac をご覧ください。

havebin.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。