
よりインテリジェントで接続性に優れたSiriは、近年のiOSアップデートの目玉機能の一つです。BackchannelのSteven Levy氏がApple幹部への最新インタビューを掲載し、Appleの人工知能アシスタントの舞台裏を垣間見せています。記事は、2014年に米国ユーザー向けにSiriの音声認識システムが「ニューラルネットベースのシステム」に移行した際のアップグレードの詳細から始まり、iOS 10でさらにアップグレードが行われると言及しています…
当初のレビューは絶賛されたものの、その後数ヶ月、数年経つにつれて、ユーザーはその欠点に苛立ちを募らせるようになりました。コマンドの解釈を誤ることがあまりにも多く、微調整しても改善されませんでした。
そこでAppleは、7月下旬のその日、米国ユーザー向けにSiriの音声認識をニューラルネットベースのシステムに移行しました(全世界で移行したのは2014年8月15日です)。以前の技術の一部は引き続き運用されていました(ご家庭で覚えている方なら、「隠れマルコフモデル」など)。しかし、現在のシステムは、ディープニューラルネットワーク(DNN)、畳み込みニューラルネットワーク、長短期記憶ユニット、ゲート付き回帰ユニット、Nグラムといった機械学習技術を活用しています(聞いてくれて嬉しいです)。ユーザーがアップグレードした当時、Siriの見た目は変わっていませんでしたが、ディープラーニングによって強化されていました。
レヴィ氏は、Apple は(今まで)バックエンドのアップグレードを公表していなかったが、当時の改善は劇的だった(思い出せば、これは iPhone 6 の頃だ)と述べている。
「今回のケースは、数値の急上昇が非常に大きかったため、誰かが小数点以下の桁を落としていないか再度テストする必要があるケースの一つだ」と、アップルのインターネットソフトウェアおよびサービス担当上級副社長、エディー・キュー氏は語る。
この記事の焦点とインタビューの要点は、Apple の Siri が Google や Microsoft による同様の取り組みの真の競争相手であることを伝えることにあるようだ。
私たちが席に着くと、彼らは私に、機械学習を活用した Apple の製品とサービス (すでに出荷されているものや、もうすぐ出荷されるもの) をリストアップした 2 ページにわたる内容の濃い議題を渡しました。それらについて話し合う予定でした。
メッセージ: 我々はすでにここにいる。プレイヤー。誰にも負けない。
しかし、私たちは自分たちのやり方でやります。
シラー氏は次のように主張している。
「過去5年間、Apple社内ではこうした取り組みが急速に成長してきました」とフィル・シラーは語る。「Appleデバイスは、特にApple Design Aシリーズのチップによって、飛躍的にスマート化が加速しています。バックエンドは飛躍的にスマート化、高速化しており、私たちが行うあらゆる行動に何らかの形で接続される理由が生まれています。学習すべきことが山ほどあり、しかもそれが私たちに利用可能であるため、機械学習技術はますます発展していくでしょう。」
そして記事の中で、フェデリギ氏は、Apple の機械学習へのアプローチは、単一の機械学習チームを持つのではなく、各チームのプロジェクトに適用することだと述べています。
「Appleには、機械学習の殿堂のような中央集権的な組織は存在しません」とクレイグ・フェデリギは言います。「私たちは、適切なユーザーエクスペリエンスを提供するために機械学習を適用する必要があるチームの近くに機械学習を維持するよう努めています。」
Appleで機械学習に取り組んでいるのは何人いるのだろうか? 何度か尋ねられた後、フェデリギ氏は「たくさんいます」と答えた。
Levy 氏は、パームリジェクション機能を備えた iPad Pro の Apple Pencil を例に挙げています。
その一例が、iPad Proで使えるApple Pencilです。Appleが独自のハイテクスタイラスペンを搭載するためには、ユーザーがデバイスに書き込む際に手の甲がタッチスクリーンに触れ、様々なデジタルトラブルを引き起こすという問題に対処する必要がありました。そこで、「パームリジェクション」という機械学習モデルを用いることで、画面センサーはスワイプ、タッチ、そしてペンシル入力の違いを非常に高い精度で検出できるようになりました。「これが完璧に機能しないなら、これはもはや私にとって書きやすい紙ではなく、ペンシル自体も良い製品とは言えません」とフェデリギ氏は言います。もしペンシルを愛用しているなら、機械学習に感謝しましょう。
この記事はおそらく、今日私たちが目にしたSiriに関する最も詳細な考察であり、そこから得られるニュースがあるとすれば、それはSiriとiOS 10に関する次の点だ。
今秋に正式リリース予定のiOS 10では、Siriの音声が機械学習によって変換される4つのコンポーネントのうち最後の1つとなります。ここでも、ディープラーニングが、以前にライセンス供与された実装に取って代わりました。Siriの発言は基本的に、音声センターに収集された録音データベースから生成されており、それぞれの文章はこれらの断片をつなぎ合わせたパッチワークです。グルーバー氏によると、機械学習によってこれらの断片が滑らかになり、Siriはより人間らしく聞こえるようになるとのことです。
もしSiriのアップグレードが、今月初めにリリース予定のiOS 10とは別に予定されているのであれば、バーバラ・ストライサンドが今週初めに9月30日に述べたコメントも説明がつくかもしれない。(例えば、冒頭で言及したアップグレードが全世界でリリースされた2014年8月15日には、iOSのアップデートはなかったと思う。)
記事全体は、スティーブ・ジョブズの下でAppleに買収されたチームにまで遡るSiri、プライバシーに対するAppleの保守的なアプローチ、そしてiOS 10の差分プライバシーに関してAppleが行っていることに関する興味深い話でいっぱいです。こちらから読んでみてください。
画像クレジット: ミシェル・ル
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。