「AI」ではなく「マシンラーニング」と呼ぶのは、
真にインテリジェントなAIを目指すため

 もう一つ、今回のキーノートでアップルがこだわったことがある。それは、各製品やOSが持つインテリジェントな機能について、AIではなく「マシンラーニング」(機械学習)と説明していたという点だ。

 アップルが提供するSiri以外のマシンラーニング技術は、ユーザーにとって「黒子」であり、すでに意識されないところで数多く利用されている。また、現段階の生成系AIは必ずしも正しい答えを出すとは限らないため、アップルの哲学と相容れない部分がある。その意味で、アップルにとって今のAIは、「AIと呼べるほどインテリジェントではない」ということなのだろう。

 それは、プロンプトエンジニアリングについて考えてみても分かる。自然言語によって生成系AIに指示を与えられること自体が、技術的なマイルストーンであることは間違いなく、その点は大いに評価されるべきものだ。しかし、必要とする結果を引き出すために、プロンプトに詳細な説明を盛り込む必要があるという点は、見方を変えると、まだインテリジェントさが足りないということになる。理想は、プロンプトエンジニアリング自体が不要なレベルに持っていくことであり、将来的にはそうなっていくだろう。

Vision ProVision Proはユーザーが何を見ているかを把握できるため、操作の対象を見つめて声による指示でテキスト入力することも可能。周囲のリアルな機器についても、同様の操作が可能になるものと思われる Photo:Apple 拡大画像表示

 そうした観点からVision Proの機能を見ると、アップルが目指すAI(もしくは、究極的なマシンラーニング)の姿が浮かび上がってくる。今回、visionOS(Vision Pro用のOS)以外のOS関連の発表としては、Siriを“Hey, Siri”の呼びかけではなく、単に“Siri”というだけで利用できるようになるとのアナウンスがあった。音声認識は、発せられた言葉が短いほど手がかりが少なく難しい面があるため、この転換は、見かけよりはるかに高度な技術的挑戦だったはずだ。しかし、「空間コンピュータ」のVision Proでは、”Siri”という起動ワードすら不要になる可能性がある。

 その片鱗は、デモ映像の中にあった、テキストフィールドへの声による入力機能に垣間見ることができる。Vision Proは、常にユーザーの視線を把握しているため、テキストフィールドを見て言葉をつぶやけば、それだけで自動的に入力が完了するのだ。こうした操作が、アプリだけでなく、リアルな空間にある家電製品などにも適用されるであろうことは容易に想像がつく。つまり、テレビを見て「○○チャンネルにして」、「音量を上げて」というだけで、あるいはエアコンを見て「○○度にして」というだけで、現在のような言葉による機器の指定なしに、処理できるようになるだろう。さらには、Vision Proがカメラとセンサー類によってその部屋について学習済みであれば、それらの機器を見る必要すらなく、要望を伝えるだけで適切な処理を行えるはずだ。