目指すのは「コンテキスト+マシンラーニング」
によるスマートなAIの実現
生成系AIとの関連では、たとえば、ChatGPTでは一連のデータをプロンプトで与えて、それを表にまとめるような処理ができるが、Vision Proでは、紙の資料を見て、それをインフォグラフィックス化するようなことも可能になっていくだろう。必要な箇所を注視して声やわずかなジェスチャーで意図を伝えるだけで、処理をアシストしたり、情報を3D表示するような機能が付加されていくものと思われる。
Vision Oneの基礎的な技術開発にも加わっていた元アップルのエンジニアによると、visionOSでは各種センサー情報からユーザーが次に行うであろう動作を予測するところまで考えられているという。たとえば、アイコンを選択する直前には、ユーザーの目の虹彩がわずかに反応するが、それは、そのアイコンに興味を示していることを表している。
つまり、Vision Proは、アプリの内容を把握しているだけでなく、センサー情報から周囲の状況やユーザーの意図を読み取って、処理に活かす能力を備えていることになる。アップルは将来的に、こうしたコンテキスト(文脈)とマシンラーニングを組み合わせることによって、プロンプトによる細かな指定なしに、意図する処理がなされるようなAIのあり方を実現しようとしているのではないか。これはVision Proレベルのハードウェアなしには実現できない世界であり、ここでもハードウェア技術に長けたアップルの強みが生きてくる。
今回発表されたデモ動画のように、Vision ProからMacOSやiOS/iPadOSアプリを呼び出して使えたり、少ない手数でネイティブのVisionアプリに移植できるというのは、あくまでユーザーや開発者に対する「呼び水」に過ぎない。キーノートでは、すでに選ばれた開発者によるサンプルアプリも少しだけ映し出されたが、本命的なVisionアプリはこの半年の間に登場すると思われる。世界中の開発者たちも、とりあえず既存アプリの対応を終えれば、フル回転で空間コンピューティングに相応しいVisionアプリの開発に取り掛かるだろう。
あとは、来年の日本でのVision Proの発売に向けて、円高傾向になることを切に望みたいものだ。