xxx
「Google Tensor」

Googleの開発者に取材した米Vergeの報道によると、Pixel 6シリーズはTensor SoCの能力を動画撮影で効果的に活用しているようだ。スマホの写真撮影における「HDR撮影」では、夕焼けのような明暗差が激しいシーンをAI処理を用いて補正しているが、Tensor SoCでは動画の1フレームごとにHDR処理を施し、動画でも自然な夕景を残せるという。

GoogleはAI関連技術の活用をリードする企業となっており、データセンター向けのプロセッサーではすでに自社設計の「TPU(Tensor Processing Unit)」を開発した実績もある。

なお、スマホのSoCでのAI処理能力の向上は、Googleに限った動きではない。ここ10年来、スマホのSoCは半導体製造プロセスの微細化によって飛躍的に性能を向上させてきたが、近年では物理的な製造技術の限界が近づいているため、AI処理の効率化を進める動きが広がっている。

AppleのiPhoneでは2010年発売のiPhone 4から独自設計のSoC「Apple シリコン」を搭載しており、2020年からはパソコンのMacシリーズにもApple シリコンの搭載を進めている。Apple シリコンはNPUと呼ばれる機械学習に特化した処理回路を搭載している。Tensor SoCはさながら「Google シリコン」といったところだろうか。

カメラはハードウェアも強化

GoogleのPixelシリーズは、Androidプラットフォームを開発するGoogleのショーケース的な側面もあわせ持っている。

Googleの強みはAI関連技術をはじめとするソフトウェアにある。これまでのPixelシリーズでは、ハードウェアの性能をあえて抑えて、AI処理で性能を強化する方針をとっていた。

分かりやすい例がカメラで、Pixelシリーズではスマホのカメラでは難しい撮影シーンにAI処理を併用する「計算写真」のアプローチで写真の画質を高めてきた。例えば長時間露光で星空を撮影できる「天体撮影モード」はその成果の代表例として挙げられる。

その一方で、カメラのイメージセンサーには2018年のPixel 3から3世代続けて同じソニー製の「IMX363」を選択するなど、ハードウェアの性能向上は明確に抑制されてきた。

Pixel 6ではTensor SoCの採用とあわせて、カメラのハードウェアも大きく刷新されるようだ。上位版のPixel 6 Proは光学4倍ズームの望遠と標準画角、超広角という構成の3眼カメラを採用。従来のイメージセンサーより大きくなり、150%の光量を取り込めるとしている。Pixel 6は望遠を除いた2眼カメラを搭載する。