

Apple Intelligenceが今週ベータ版としてリリースされましたが、同社はそのAI機能の一部がどのように開発されたかについての詳細な概要を公開しました。重要な情報として、Appleの基盤モデルのうち2つはGoogle製チップを使用して開発されたことが挙げられます。
Apple Intelligenceの開発を初めて詳しく見る
Appleは、製品開発における社内の取り組みについて、多くの詳細を公開することを避ける傾向があります。しかし、AIとMLの機能に関しては、長年にわたり研究成果を一般公開してきました。
最新の出版物は「Apple Intelligence Foundation Language Models」と題されており、WWDC で Apple Intelligence が発表されて以来の最初の論文の 1 つです。
この文書は研究者によって研究者向けに書かれたため、解釈が容易ではありません。しかし、注目すべき点として、Apple Intelligenceの言語モデル2つを学習するために使用されたチップに関する情報が挙げられます。
本レポートでは、30億パラメータの言語モデルであるAFM-on-device(AFMはApple Foundation Modelの略)と、より大規模なサーバーベース言語モデルであるAFM-serverという2つのモデルが、どのようにして構築され、特殊なタスクを効率的、正確、そして責任を持って実行するために適応されてきたかを詳しく説明します。これら2つの基盤モデルは、Appleがユーザーと開発者を支援するために作成した、より大規模な生成モデルファミリーの一部です。これには、Xcodeにインテリジェンスを組み込むためのコーディングモデル(AFM言語モデルに基づく)や、ユーザーがメッセージアプリなどで視覚的に自己表現できるようにするための拡散モデルが含まれます。
Googleチップを使ってAppleモデルをトレーニングする
言及された 2 つのモデル (AFM-on-device と AFM-server) は、Apple の社内 Apple Silicon チップを使用してトレーニングされたものではありません。
代わりに、AppleはモデルのトレーニングにGoogle Tensorチップを採用しました。論文によると、この作業には大量のTensorチップが必要でした。
- AFMオンデバイスはトレーニングに2,048個のTPUv5pチップを必要とした
- より大きなAFMサーバーモデルには8,192個のTPUv4チップが必要であった。
他の企業が頼りにする傾向のあるNvidiaチップではなく、GoogleのTensorチップをAppleが選択したのは興味深い。
この論文ではそれについては説明されていないが、おそらく今後の刊行物では説明されるだろう。
このニュースをどう受け止めるべきでしょうか?Appleからさらなる詳細が発表されない限り、どう考えるべきなのか分かりません。
Apple が可能な限り社内で作業を行うことを好んでいることを考えると、同社がすでにモデルトレーニングに Google Tensor から移行し、Apple Silicon の高度なバージョンを使用している可能性は十分にあります。
いずれにせよ、これが意味するのは、Apple Intelligence によって iPhone がさらに賢くなったのは、ある程度は Google のおかげだということです。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。