
先週の月曜日、WWDC25 基調講演の終わり頃、Craig Federighi 氏は、Apple が Swift Assist のビジョンを「拡大」し、開発者が選択した Large Language Model を Xcode に直接導入できるようになると述べました。
これで、これがどのように機能するかについて、より詳しく知ることができました。
Swift Assist とは何ですか?
これはAppleが昨年のWWDCで発表した機能ですが、Xcode 26ベータ版でようやくリリースされました。当初、Appleの説明によると、この機能は次のような役割を果たす予定でした。
開発者のあらゆるコーディングタスクをサポートする相棒として、より高度な問題解決に集中できます。Xcodeにシームレスに統合され、最新のソフトウェア開発キット(SDK)とSwift言語機能に対応しているため、開発者は常にプロジェクトに完璧に適合する最新のコード機能を利用できます。Swift Assistを使えば、新しいフレームワークの探索や新しいアイデアの実験といったタスクを、たった1つのリクエストで実行できます。Swift Assistはクラウドで実行される強力なモデルを使用しており、Appleの他の開発者サービスと同様に、プライバシーとセキュリティを考慮して構築されています。開発者のコードはリクエストの処理にのみ使用され、サーバーに保存されることはありません。また、Appleはそれを機械学習モデルのトレーニングに使用することはありません。
新しいSwift Assistとは何ですか?
Apple は、Xcode 26 の Swift Assist に関する新たなビジョンの詳細を発表しました。これには、予測コード補完用の組み込みモデル、無料使用が制限された新しいネイティブ ChatGPT 統合、開発者がサードパーティ プロバイダー (独自のマシンで実行されるローカル モデルを含む) をプラグインする方法などが含まれます。
デフォルトでは、開発者はわずか数クリックでChatGPTを有効化できますが、1日のリクエスト数に制限があります。既にChatGPT Plusサブスクリプションをお持ちの場合は、ログインするか、独自のAPIキーを入力することでこれらの制限を回避できます。

しかし、Xcodeの真の強みは、そのオープン性にあります。開発者はAPIキーを入力するだけで、Anthropicなどの他のプロバイダを追加でき、業界をリードする最先端のコーディングモデルの最先端にアクセスできます。Appleの実装では、開発者が各プロバイダから表示するモデルを選択したり、お気に入りに登録して素早くアクセスできるようにすることも可能です。
ローカルモデルも利用可能です。開発者がOllamaやLM Studioなどのツールを使用している場合、XcodeではMac上で直接実行されているモデルを利用できます。必要な数のプロバイダーを追加でき、新しい会話を始める際にXcodeのコーディングアシスタントで切り替えることができます。

この動きにより、Xcodeは現代のAIツールの方向性、つまりモデル非依存、カスタマイズ性、そしてAppleのモデルアップデート版の採用に依存しないモジュール性という方向性に沿ったものになります。これは間違いなく正しい方向性であり、マルチモデル環境においてXcodeの魅力を飛躍的に高める柔軟性と言えるでしょう。
XcodeでLLMを使うことにワクワクしていますか?LLMを使ってコーディングしたことはありますか?ぜひコメント欄で教えてください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。