

AppleがLLM搭載の刷新されたSiriをリリースする日ではありませんが、本日のアップデートではApple Intelligenceの機能セットに複数の嬉しい追加機能が加わりました。以下にそのハイライトをご紹介します。
WWDC25 で、Apple は AI 分野で遅れをとっているという事実に対抗するため、すでにリリースされているすべての Apple Intelligence 機能を (ほとんど受動的かつ攻撃的に) 強調することを強調しました。
その後、Apple は新しい Apple Intelligence 機能を発表し、ベータ版の第一波、またはその直後に提供できると確信している機能のみを披露しました。
本日より Apple Inteligence 対応デバイスをアップデートするとすぐに使用できる、最も優れた Apple Intelligence 機能の一部をご紹介します。
基礎モデルフレームワーク
これは本日のアップデートの中で、間違いなく最も重要な変更点です。アプリはAppleのデバイス内モデルに直接接続できるようになり、外部APIやWebに頼ることなくAI機能を提供できるようになります。

ユーザーにとっては、プロンプトがデバイスから外部に送信されることがないため、よりプライベートなAIベースの機能が強化されます。開発者にとっては、Appleが自社のAIサービスに活用しているのと同じデバイス上のパワーを活用できるため、より高速で合理的なエクスペリエンスが実現します。
現時点では、開発者はAppleのクラウドベースモデルにアクセスできません。これはデバイス上でのみ利用可能です。それでも、開発者が追加費用なしでAI機能を導入できるという事実は、非常に興味深い機能やユースケースを生み出すはずです。
ショートカットと自動化
今日のアップデート、特に macOS Tahoe 26 では、ショートカットと自動化が大きな役割を果たします。
今では、Apple Intelligence をショートカットに直接組み込むことができます。これは実際には、Writing Tools、Image Playground、さらには Apple 独自のモデルや ChatGPT をワークフローのステップとして含め、作業をより速く行うことができることを意味します。

自動化を初めて使う方は、戸惑うかもしれません。しかし、ぜひいろいろと試してみて、AIを活用した自動化をワークフローに取り入れる方法を見つけてみてください。職種によっては、仕事の進め方が劇的に変わるかもしれません。
ライブ翻訳
目玉機能は、相手が別の言語で話している内容を自動的に翻訳する AirPods のライブ翻訳ですが、ライブ翻訳機能はメッセージ、電話、FaceTime にも搭載されています。

メッセージアプリでは、ライブ翻訳機能が送受信テキストメッセージを自動翻訳します。FaceTime通話中は、画面にリアルタイム翻訳された字幕が表示されます。電話通話の場合は、AirPodsのライブ翻訳機能と同様に、音声翻訳が聞こえます。

どの言語がどの機能と互換性があるかについての Apple の細則は次のとおりです。
AirPods によるライブ翻訳は、Apple Intelligence 対応の iPhone とペアリングした場合、アクティブノイズキャンセリングを搭載した AirPods 4 または最新のファームウェアを搭載した AirPods Pro 2 以降で動作し、英語 (米国、英国)、フランス語 (フランス)、ドイツ語、ポルトガル語 (ブラジル)、スペイン語 (スペイン) をサポートします。
メッセージのライブ翻訳は、対応する iPhone、iPad、または Mac で Apple Intelligence が有効になっている場合、中国語(簡体字)、英語(英国、米国)、フランス語(フランス)、ドイツ語、イタリア語、日本語、韓国語、ポルトガル語(ブラジル)、スペイン語(スペイン)で利用できます。また、Apple Intelligence 対応の iPhone とペアリングした Apple Watch Series 9 以降および Apple Watch Ultra 2 以降でも利用できます。
対応する iPhone、iPad、または Mac で Apple Intelligence が有効になっている場合、電話と FaceTime でのライブ翻訳は、英語 (英国、米国)、フランス語 (フランス)、ドイツ語、ポルトガル語 (ブラジル)、スペイン語 (スペイン) での 1 対 1 の通話で利用できます。
電話といえば、Apple Intelligence ではボイスメールの概要が提供され、不在着信と一緒に表示されます。
ビジュアルインテリジェンス
Apple は視覚検索機能をカメラ以外にも拡張し、画面上のものもサポートするようになりました。

つまり、画面に表示されているもののスクリーンショットを撮ると、iOS がそのコンテンツを認識し、特定の部分をハイライトしたり、類似の画像を検索したり、スクリーンショットに表示されているものを ChatGPT に問い合わせたりできるようになります。
Visual Intelligence は、スクリーンショットから日付、時刻、場所も抽出し、画像が英語であれば、カレンダーにイベントを追加するなどのアクションをプロアクティブに提案します。
Genmojiと画像プレイグラウンド
これで、2 つの異なる絵文字 (およびオプションでテキストの説明) を組み合わせて、新しい Genmoji を作成できるようになりました。
また、写真ライブラリの人物に基づいて、Genmoji の表情を追加したり、髪型やひげなどの個人的な属性を変更したりすることもできます。

Image Playground での最大のニュースは、OpenAI の画像ジェネレーターを使用できるようになりました。水彩画や油彩などのプリセット スタイルから選択したり、作成したい画像のテキスト プロンプトを送信したりすることができます。
また、Image Playground を使用すると、アプリを終了せずにメッセージの背景や Genmoji を作成することもできます。
9to5Macの見解
AppleがSiriのようなAIの活用に苦戦していることは明らかだ。複数の著名人の退社から、決算発表後のティム・クック氏の激励まで、Appleが苦境に立たされていることは明らかだ。
とはいえ、Apple Intelligenceに本日追加された機能の中には、実によく考え抜かれて実装されたものもあり、ユーザーがより速く、より効率的に作業を進める上で大いに役立つでしょう。私はショートカット機能でApple Intelligenceを使っていますが、ワークフローの一部が大きく改善されました。これは、つい最近までネイティブアプリを使い続けたいと思っていた私にとっては手の届かないものでした。
Apple の道のりはまだ長いが、同社が今日リリースする AI を活用した機能は優れたものであり、これまで無視していたとしてもチェックしてみる価値があるかもしれない。
9to5Macによる今日の Apple OS リリースに関する記事をぜひチェックしてください。
- iOS 26がリリースされました。iPhoneの新機能をご紹介します。
- iPadOS 26が大幅なアップグレードとともにリリースされました。新機能をご紹介します。
- macOS Tahoe 26がリリースされました。まずはテストすべき点をご紹介します。
- watchOS 26がリリースされました。Apple Watchの新機能をご紹介します。
- visionOS 26が本日から利用可能になりました: Apple Vision Proの新機能をご紹介します
Amazonのアクセサリーセール
- AirPods Pro 3 – 予約注文
- Apple AirTag 4個パック
- アップル エアタグ
- Beats USB-C - USB-C 織り込みショートケーブル
- ワイヤレスCarPlayアダプター
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。