ゴーグル型のApple Vision Proゴーグル型のApple Vision Proは、パーソナルコンピューティング、モバイルコンピューティングの先にある「空間コンピューティング」のためのデバイス。装着すると片目あたり4Kの解像度で、現実の風景と高精細のCGイメージが合成されて表示される Photo:Apple

6月6日、アップルは開発者向けカンファレンス・WWDCで“空間コンピュータ”の「Apple Vision Pro」(以下、Vision Pro)を発表し、メディアの注目を一身に集めることに成功した。世間は今、生成系AIの話題でもちきりだが、ChatGPTが誰でも使える「今ここにある未来」とするならば、Vision Proは「ありうる未来」といえよう。少なくともあと半年は一般消費者が手にできず、しかも価格(米国で約3500ドル、日本円で約49万円)的にも誰もが気軽に購入できる製品ではない。しかし、そこには生成系AI業界をも巻き込む、アップル流の野心的戦略が見え隠れしている。アップルはVisionProを足がかりに、何を目指すのか。その思惑や、この先の展望について深掘りしていこう。(テクノロジーライター 大谷和利)

空間コンピュータ「Vision Pro」、
アップルの本気度が対象ユーザーから分かる

 Vision Proの概要について、まずは簡単に紹介しておこう。ゴーグル型のこのデバイスは、それ自体が完結したコンピュータであり、最新のMacBook Airと同じApple純正のM2チップと、センサーデータなどのリアルタイム処理を行うR1チップによって機能する。「空間コンピュータ」と呼ばれる通り、独立したディスプレイは用いず、作業はすべて、ユーザーの目の前の空間に浮かびあがるウィンドウなどのオブジェクトを、ジェスチャーや声、視線の組み合わせによって操作する仕組みになっている。

 ゴーグル型のコンピュータデバイスは他社からも出ているが、今のところニッチに留まり、撤退した企業もある。Vision Proがそれらと大きく異なるのは、現実とコンピュータ生成の要素の統合度の高さや、処理の遅延の無さ、優れたジェスチャーユーザーインターフェース、そして、すでに数多く存在するMacやiPadのアプリ資産がそのまま、あるいは少しの手直しで利用できる点である。

 既存の記事は、コントロールされた環境下でのハンズオンレポートも含めて、大半はWWDC2023のキーノート内のプレゼンテーションから分かることの追体験に終始している印象があるが、まだ情報ソースが限られていることもあって致し方ないところだ。そこで、ここでは、その背後にあるAppleの思惑や、この先の展望について深掘りしていこう。ちなみに、製品の正式名称はApple Vision Proで、Apple TVやApple Watchと同様に、一般名詞の前にAppleを冠した形になっている。事前の噂では、製品名がReality Pro、OS名がRealityOSともいわれていたが、それは近年の情報リークに悩まされていたApple自身による、巧妙な隠蔽工作の成果だったようだ。

ジェスチャーコントロールVision Proの操作の基本はジェスチャーだが、長時間の利用でも疲れないように、手のひらは膝などに置いたまま、指先などのごく小さな動きを認識できるようになっている Photo:Apple

 さて、筆者は以前に、アップルがARグラスに先立ってAR/VRゴーグルのような製品を出すとすれば、それはARグラス用アプリの開発機的な位置付けではないか、という記事を書いたことがあった。たとえば、特定の場所との組み合わせで機能するARアプリをテストする場合、実際にその場所まで行かなくても、VR環境でシミュレートできれば開発効率を上げることができる。アップルが独自に世界の詳細な3Dマップを作っていることも、このような使われ方を裏付ける材料だった。

 ところが、WWDCでのVision Proのプレゼンテーションは、開発者向けではなく、エンドユーザー向けのユースケースの紹介で占められていた。