

AppleのWWDC(世界開発者会議)が6月3日に開幕します。先週、iOS 13とmacOS 10.15に関する詳細情報を独占公開しました。本日は、Appleの新OS開発に詳しい情報筋によると、同イベントで発表される予定の開発者向けの新機能とAPIの詳細をお伝えします。
新しいSiriインテント
メディアの再生、検索、音声通話、イベントのチケット購入、メッセージの添付、電車の旅、フライト、空港のゲートや座席の情報など、開発者が採用できる新しい Siri インテントが登場します。
マジパンの改良
iOSアプリをMacに移植する開発者は、UIKitアプリをTouch Barやメニューバー(キーボードショートカットを含む)などのMac固有の機能と統合できる新しいAPIにアクセスできるようになります。Mac上のUIKitアプリでは、複数のウィンドウを開くことも可能になります。
iOS から移植された Split View アプリでは、ネイティブ Mac アプリと同様に、区切り線をドラッグしてサイズを変更したり、区切り線をダブルクリックして位置をリセットしたりできるようになります。
既存の iOS アプリで Mac サポートを有効にするのは、iPhone 専用アプリに iPad サポートを追加するのと同じように、Xcode のターゲット設定でチェックボックスをオンにするだけです。
拡張現実
Appleプラットフォーム上のARは今年、Swift専用の新しいARフレームワークや、開発者がAR体験を視覚的に作成できるコンパニオンアプリなど、大幅な改善が見込まれます。ARKitは人間のポーズを検出できるようになりました。ゲーム開発者向けには、タッチパッド付きコントローラーとステレオARヘッドセットがOSでサポートされます。
タプティックエンジン、リンク、NFCなど
新しいフレームワークにより、開発者はTaptic Engineをより細かく制御できるようになります。Taptic Engineは現在、サードパーティ開発者向けに非常に限られたフィードバックスタイルしか提供していません。また、開発者がアプリにiMessageの会話に表示されるものと同様のリンクプレビューを追加できる新機能も追加されます。
NFCは大幅に改善され、サードパーティ開発者がISO7816、FeliCa、MiFareタグを読み取れるようになります。現在、サードパーティ製アプリで読み取れるのはNDEF形式のタグのみです。
CoreMLの新バージョンでは、開発者はデバイス上で機械学習モデルを更新できるようになります。現在、モデルは事前学習が必要で、デプロイ後は静的です。これにより、アプリは機械学習モデルがユーザーの行動を学習するにつれて動作を変更できるようになります。Appleはまた、開発者が機械学習を用いて音声分析を行うための新しいAPIも追加します。Visionフレームワークには画像分類器が組み込まれるため、開発者は画像を一般的なカテゴリに分類するための機械学習モデルを埋め込む必要がなくなります。
iOSの一部のアプリ(例えばメモアプリ)で利用可能なドキュメントスキャン機能は、新しいパブリックフレームワークを通じてサードパーティ開発者にも提供されます。新しいAPIにより、アプリは写真アプリを経由することなく、カメラやSDカードなどの外部デバイスから写真をキャプチャできるようになります。
Macでは、アプリがファイルプロバイダ拡張機能を提供できるようになり、Dropboxなどの特定のアプリとFinderの連携が改善されます。また、開発者がデバイスドライバを開発するための新しいAPIも提供されます。
Appleは、6月3日のWWDC基調講演でiOS 13、tvOS 13、macOS 10.15、watchOS 6を発表する予定です。開発者は最初のベータ版にすぐにアクセスでき、パブリックベータプログラムのメンバーには後日パブリックベータ版が提供されます。最終版は9月に一般向けにリリースされる予定です。
このレポート作成に協力してくれた Steve Troughton-Smith 氏に感謝します。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。