

ジョナサン・アイブ氏はインタビューで、iPhone Xは長年の夢の実現であると同時に、Appleのスマートフォンの今後の発展における新たな章の始まりでもあると語った。
そこまでは予想通りだった。Appleは常に次世代デバイスの開発に取り組んでいるため、iPhone Xは当然ながら新しいiPhoneシリーズの最初のモデルに過ぎない。
しかし、彼が言った別の言葉が、Apple のユーザーインターフェースの新しい方向性を示唆していると私は思います…
Google 翻訳では、彼が使った言葉がかなり台無しにされてしまったので、まずは逐語訳を見てから、私自身の解釈を紹介したいと思います。
はい、ボタンに触れて指紋を読み取るという物理的なタッチではなく、ユーザーに意識させる方法を見つけました。非接触でユーザーの顔を認識してマッピングするFace IDです。その技術を採用することで、iPhoneに触れることなく、ある程度純粋に使えるようになりました。デザイナーとして悩ましいのは、形状を排除するデザインでありながら、物理的に存在する形状がその機能を理解する上で重要になるというパラドックスがあることです。
これを次のように翻訳します。
Touch IDでは、ボタンをタッチしてiPhoneのロックを解除する必要があります。Face IDでは、ユーザーはiPhoneを見るだけで済み、そのインタラクションには純粋さが感じられます。デザイナーとして、物理的な形状にこだわりながらも、実際にはデバイスがユーザーのやりたいことを邪魔しないようにしたいという矛盾を感じています。
「形態は機能に従う」というフレーズを初めて提唱したのは、アメリカの建築家ルイス・サリバンでした。彼は、何かをデザインするには、まずその機能を理解し、それに基づいてデザインする必要があると主張しました。彼は、余分なものは一切なく、その物がその役割を果たすために必要な要素だけが存在するべきだと提唱しました。
空を飛ぶ鷲であれ、開いたリンゴの花であれ、一生懸命働く馬であれ、陽気な白鳥であれ、枝分かれしたオークの木であれ、その根元を曲がりくねって流れる小川であれ、流れる雲であれ、流れる太陽全体であれ、形態は常に機能に従い、これが法則である。
アイブはこの考えを効果的に一歩進め、優れたデザインとはユーザーがその形状をほとんど意識しないことだと示唆しています。彼は長年、iPhoneの目標を「一枚のガラス板」にすることを表明しており、iPhone Xのデザインにおいて、この目標は実質的に達成されたと考えていることが明らかでした。
彼が iPhone X の物理的な形状を「一枚のガラス板」の最初の例として見ているのと同じように、Face ID を「純粋な UI」の最初の例として見ていることも明らかです。言い方を借りれば、「ただ機能する」ユーザーインターフェイスです。
このことから推測するのは、それほど想像力を働かせる必要はないと思います。Appleはアニ文字で、スマートフォンが表情を認識できることを実証しました。では、スマートフォンが私たちに何かをしてほしいかどうか尋ねてきたとき、うなずいて答えたり、首を振って行動を拒否したりできたらどうでしょうか?
それとも、そんなに努力する必要はないのかもしれません。むしろ、微笑むことで承認し、眉をひそめることで否定する、といったこともできるのではないでしょうか。
AIの役割が拡大するにつれ、顔の表情認識によってスマートフォンが操作する、完全自動の写真編集機能も実現するかもしれません。写真を撮ると、iPhoneはポートレートライティングを使って、その写真の中でベストと思われるバージョンを提示します。私たちが笑顔を見せると、iPhoneはそのバージョンを気に入ったと判断します。そして、私たちの表情を観察しながら、さらに微調整を行います。コントラストを少し濃くしますが、それが気に入らないように見えるので、変更を元に戻します。代わりに彩度を上げようとしますが、私たちがそれを気に入っているように見えるので、彩度を上げ続けます。私たちが少し困惑した表情になるまで彩度を上げ続け、それから最も気に入っているように見えるポイントまで引き下げます。
同じようなアプローチは、ほとんどすべてのアプリで活用できます。例えば、メールを確認しているとしましょう。ジェスチャーや表情を使って、スパムの削除からメールをスヌーズして後で処理するまで、メールアプリのあらゆる操作を操作できます。
おそらくホームアプリは私たちが少し寒そうに見えることに気づいて、暖房を上げてくれるでしょうか?
ヘルスケアアプリは、私たちの心拍数から帰宅時に少しストレスを感じている様子を察知し、心地よい音楽とムード照明の組み合わせをいくつか試して、私たちを落ち着かせてくれるものを見つけるのかもしれません。Shazamは、私たちがアーティストと曲名を思い出そうとしているかのように頭を振っているのを感知し、ボタンをタップして尋ねなくても情報をポップアップ表示します。
Podcast アプリは、私たちが困惑している様子を察知し、自動的に 20 秒戻してくれるので、聞き取れなかった部分をもう一度聞くことができます。
Twitter は、私たちがツイートを読んでいるときに眉をひそめていることに気づき、詳細を知るためのリンクを自動的に開き、私たちがその思い込みにうんざりしているのを見るとすぐにリンクを閉じるのです。
もっと詳しく説明することもできますが、要点はご理解いただけたと思います。表情やジェスチャーの認識とAIを組み合わせれば、iPhoneとiOS版を設計するための非常に強力なアプローチが実現します。私たちが求めなくても、何が欲しいのか、何が必要なのかを理解するのです。おそらくこれが、アイブ氏が示唆している類のものだと思われます。
これはAppleに望む方向性でしょうか、それとも少しビッグブラザー的すぎると感じますか?これは役に立つでしょうか、それとも迷惑でしょうか?いつものようにアンケートにご協力いただき、ご意見やアイデアをコメント欄でお聞かせください。
Apple のニュースをもっと知りたい場合は、YouTube の 9to5Mac をご覧ください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。