
Appleがノースカロライナ州に建設中の、世界最大級と言われる50万平方フィート(約4万平方メートル)の巨大データセンターの稼働開始を間近に控えている中、TechCrunchは、AppleのiOS 5の音声認識技術が、Appleのクラウドで稼働するNuance Communicationsの技術に基づいているという噂を耳にした。正式発表は来月のWWDCで行われるとTechCrunchは報じている。
より具体的には、Appleがこの新しいデータセンターでNuanceのソフトウェア(そしておそらくハードウェアの一部も)を稼働させていると聞いています。なぜでしょうか?理由はいくつかあります。まず、AppleはiOSユーザー向けの音声情報をより高速に処理できるようになります。次に、このデータがサードパーティのサーバーを経由するのを防ぐことができます。そして3つ目に、Apple独自のスタックで稼働させることで、Appleは既存の技術をベースに構築し、必要に応じて改良していくことができます。
Nuanceは、iOSデバイスで高度な音声認識を可能にする無料iOSアプリ「Dragon Dictation」を開発しています。このアプリは、同社のNaturallySpeakingテクノロジーを搭載しており、クラウド経由で音声をテキストに変換します。世界中の多くの言語に対応しており、仮想キーボードで入力するよりも5倍高速であると謳われています。
ノースカロライナ州にあるアップルの50万平方フィートのデータセンター
//
Nuanceは2010年1月にMacintosh音声認識事業(MacSpeech)を買収しました。そして同年後半、スティーブ・ウォズニアックの奇妙な失言により、AppleがNuanceを買収する可能性があるという噂が広まりました。先週の新たな報道により、この噂にさらなる裏付けが加わりました。
もしAppleがNuanceを買収したか、あるいは何らかの契約を結び、実際にこの技術をノースカロライナの施設で運用する計画であれば、iPhoneユーザーはiOS 5のリリースを喜ぶ理由が十分に得られるだろう。音声認識のディープラーニング統合は、(地図機能や検索機能と並んで)Androidの差別化機能の一つである。
これは特に、AndroidとAppleのモバイルOSがサポートする音声コマンドの数が限られていることとの比較において顕著です。iOS 5の音声認識がiCloudを利用する場合、おそらくネットワーク接続が必要になるでしょう。デバイスベースの処理にフォールバックするのは理にかなっていますが、現在のチップが音声認識に対応できるほどの性能を備えているとは考えにくいです。Appleは来月開催されるWWDCでiOS 5のプレビュー版を公開する予定です。また、検索インテリジェンススタートアップのSiriも傘下に収めています。この技術は、今後の大きな計画においても重要な役割を果たす可能性が高いでしょう。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。