CEATEC JAPAN 2017の特別セミナーとして10月6日に開催された『DIAMOND Quarterly』創刊1周年記念フォーラム。基調講演に登壇したのは、ソニー・プレイステーションの生みの親として知られる、サイバーアイ・エンタテインメント代表取締役社長兼CEOの久夛良木健氏である。本誌2016年冬号のロングインタビューで「デジタル時代のイノベーション」について語った久夛良木氏が今回の講演テーマに選んだのは、目覚ましい進化を見せるAIだ。AIは私たちの暮らしやビジネスをどのように変えていくのか。久夛良木氏はその最新動向を交えつつ、AIと人間が共創する未来について語った。

ついに人間を超えた!
AIの画像認識能力

久夛良木 健  KEN KUTARAGI
サイバーアイ・エンタテインメント代表取締役社長兼CEO。元ソニー・コンピュータエンタテインメント(SCE)会長兼グループCEO、元ソニー副社長兼co-COO。1950年、東京都生まれ。1975年、電気通信大学卒業後、ソニー入社。情報処理研究所、総合研究所等で、システムLSI、デジタル信号処理等の研究を手がける。 1993年、SCEを設立し、取締役開発部長。翌1994年に「初代プレイステーション」(PS1)を発売し、歴史的大ヒットに。1999年、SCEの代表取締役社長に就任。会社設立8年目の2001年には、同社を売上1兆円企業に成長させ、2003年にはソニー副社長兼COOも兼務。2006年にSCE会長就任後、翌2007年に退任。2009年、サイバーアイ・エンタテインメントを創業し、現職に。

 コンピュータが登場して約70年になりますが、その進化のスピードは速まるばかりです。膨大な数のコンピュータ群がインターネットに接続され、その後のモバイルネットの急速な普及により、既存の産業構造に大きな変革が生まれようとしています。現在はIoT、さらにはAIやロボティクスの爆発的な普及が目の前に押し寄せようとしています。

 これまで人類は幾度となくAIに挑戦しては、そのつど大きな挫折を繰り返してきましたが、ようやく有用な突破口が開かれようとしています。その発端となった中心人物がトロント大学のジェフリー・ヒントン教授です。同氏が人間の脳をモデルにした「深層学習」のアーキテクチャーを2006年に発表すると、世界は大きな興奮に包まれました。従来のように人間がコンピュータにルールを教えるのではなく、機械が膨大なデータをもとにみずから学習することによって、さまざまな特徴量の抽出や状況の把握、ついには概念の取得までもができるようになるかもしれない……そんな可能性を提示したからです。

 深層学習の有効性は、まず画像認識の分野で検証が始まりました。コンピュータの画像認識精度を競うコンペティション「ImageNet Competition」では、2012年の初参戦で、いきなり画像認識エラー率が10ポイント余りも向上し、現在ではついに平均的な人間のエラー率とされる5%を下回る、3%の認識エラー率にまで到達しています。

 AIの適用領域で、画像認識が先行しているのは理由があります。コンピュータの能力向上はもちろんですが、クラウド上に大量の画像データが蓄積されるようになったことが大きく寄与しています。クラウドサービスを提供するプラットフォーム各社は、世界中のユーザーが、日々スマホ経由でアップロードする膨大な数の画像群を用いて、さまざまな学習実験を繰り返しているのです。

 画像を生成するデバイスは、何もユーザーのスマホだけではありません。自動運転機能を有する車は、動くセンサーの集合体に変貌しつつあります。これらの車に搭載されたカメラをはじめ、多様なセンサー群は、多かれ少なかれネットワークにつながっています。

 ただし、すべてのデータをクラウドに送ろうとすれば、ネットワークの回線容量やデータセンターの処理能力がパンクしてしまいます。すでに何社かのスタートアップ企業群が、この問題に着目して、ボトルネックの解消に向けて研究を進めています。今後は大脳に相当するクラウド側と、運動野を担当する神経系とのシームレスな連携が大きなポイントになってくるでしょう。

高精細・マルチスペクトル化
視力拡大のインパクト

 同時に、カメラの高精細化やセンサー類の高性能化により、リアル世界のインデックス化が進行しています。グーグルのストリートビューも、第2世代ではより高精細な画像を取得できるだけではなく、街並みの様子や、レストランの店先に掲げた手書きのメニューまで読み取れるようになるでしょう。

 ストリートビューのデータと、ユーザーのスマホで撮影した画像の統合が実現すれば、リアル世界をデジタル空間でより精緻に再現できるようになります。そこに、多数のセンサー群を搭載した自動運転車が、刻々と収集する画像データが加わればどうなるでしょうか。リアルタイム性はさらに高まり、利用用途も大きく広がるはずです。

 これに対して、はるか上空からリアル世界のインデックス化を加速しているのが衛星画像群です。衛星の運行頻度は高まり、世界各地の日次の画像を手に入れることも視野に入ってきました。同時に、画像の分解能も飛躍的に向上しています。大量に取得した時系列の画像データを用いて、企業業績を予測した研究もあります。研究チームは全米96の小売店25万カ所の駐車場の車の増減をトラッキングしました。その結果、ある大手百貨店チェーンの駐車場の台数が大きく減少していることを突き止めました。研究結果が公になった直後、この企業は130店舗の閉鎖を発表しました。

 衛星画像は世界経済の動向把握にも役立ちます。石油タンクのふたの上下動は、ふたの内側に写った影の大きさで判断することができます。そこで、ある研究チームは衛星画像を解析して、中国における石油タンクの数と総備蓄量を推定。従来の手法とは異なる、ユニークなアプローチの可能性を示しました。

 このほかにも、高精度の画像認識は幅広い領域で応用可能です。医療分野はその有力な候補の一つとなっています。大量の画像を読み込んで読影能力が上がれば、いままで以上に医師を適切にサポートすることができるようになるでしょう。

 ビッグデータを収集する通信環境の強化も進んでいます。世界各国の通信キャリアが次世代通信技術として取り組む5G(第5世代移動通信システム)は、日本では2020年にも商用化の見込みです。これまで以上に大量のデータを、高速かつ低遅延でやり取りできるようになり、しかも同時に多数のデバイス群からデータを収集することができます。

 高速ネットワークの整備は、リアル世界のインデックス化をさらに促進するでしょう。たとえば、グーグルはスマホを活用して、建物内の空間情報を取得する実験を行っています。店舗を歩き回りながらスマホで動画を撮影し、その画像を処理して店舗内の構造や棚に置かれた商品の状況を把握しようという試みです。将来的には、スマホを片手に店内を歩くだけで商品の棚卸や在庫管理ができるようになるかもしれません。

 リアルの世界をより詳細に把握できれば、AR(拡張現実)の可能性も広がります。ヘッドセットを使ってバーチャルな映像世界に没入できるVR(仮想現実)と似ていますが、ARではリアルの世界の上にさまざまな情報が重畳され、刻々と同期するようになるでしょう。

 小売店舗においても、ネットとリアルの融合が始まろうとしています。アマゾン・ドットコムなどが進める無人店舗の実験では、店内の商品一個一個と、顧客の行動を、カメラやセンサーによってモニタリングし、ネットとリアルを融合したデジタルな店舗運営を実現しようとしています。未来のショッピングの形も大きく変わろうとしているのです。

多層のクラウドで
リアルタイムの要求に対応

 シスコシステムズの予測では、2020年には500億のデバイスがネットワークに接続されると見込まれています。これらのデバイス群が生み出すビッグデータの多くは、AIに取り込まれて解析され、新たな知見を生み出すでしょう。

 ただし、すべてのデータがクラウド上に集約されるわけではありません。前述したように、ネットワーク回線やデータセンターの容量には限界があります。そこで、ビッグデータをいくつかの階層に分けて管理、解析しようというアプローチが注目されています。

 たとえば、工場で生成されるデータ群の中には、リアルタイムで処理すべきものと、比較的余裕を持って解析できるものがあります。前者の代表例が、安全性に関わるデータです。突発的な事態が起きた時には、機械設備側が状況を瞬時に判断して事故を回避しなければなりません。逆に、製品出荷数やメンテナンス情報のように、日次バッチでも十分に対応可能なデータもあるでしょう。

 高いリアルタイム性が求められる分野では、機械設備や自動運転車のようなリアル世界に近いところでデータを瞬時に処理する必要があります。こうした考え方や手法は「エッジ・コンピューティング」とも呼ばれています。一方、人間の大脳に相当する上位の「クラウド」群は、大量のデータ群に基づいた高度な知識情報処理に適しています。

 さらに、エッジとクラウドの間には、「フォグ」と呼ばれるデータ集約やキャッシュ化、リソースの最適化といった処理機能を担う「中間層」を置くことも提案されています(図表1「エッジからクラウドまでのデータモデル」を参照)。

 

AI同士の直接会話が
次なる可能性の扉を開く

 これまでのコンピュータは、人間の能力や脳を補強・拡張する方向で進化してきました。最近のAIスピーカーなどの発売で注目されている自然言語処理や、大量のデータに基づく分析や予測などの領域では、IBMのワトソンや、グーグルが買収したディープマインドなどが頻繁に話題に上ります。画像認識分野に留まらず、聴覚を担うセンサー群や触覚センサーを組み込んだ作業ロボットの発展にも目を見張るものがあります。これらはいくつかの分野では、すでに人間の能力を凌駕する実力を示し始めています。

 量子コンピュータの登場は、こうした動きをさらに加速させる可能性があります。一般的なフォン・ノイマン型のアーキテクチャーを持つコンピュータでは不得意な一部の問題を、量子コンピュータでは即座に解くことができるものと期待が高まっています。深層学習に特化したタイプのプロセッサーの開発も、各社で進んでいます。

 最近注目されている分野に、AI同士の協調動作があります。象徴的な例が、囲碁の名人を破った、ディープマインドのアルファ碁です。長年蓄積された棋譜を読み込んで学習するだけでなく、アルファ碁同士が繰り返し対戦することで、その能力を飛躍的に向上させました。アルファ碁を開発したディープマインドは、次のチャレンジとして多人数のネットワークゲームを選びました。リアルタイム性が要求されるゲームという領域で、今後どのような戦い方を見せてくれるのか楽しみです。

 AI同士のコミュニケーションは、AIの自己学習への道をさらに開こうとしています。その一つが敵対性生成ネットワーク(GAN: Generative Adversarial Network)です。相対立する情報を相互にやり取りすることで、AIとAIの強化学習を行い、妥当な解へと近づいていくというアプローチです。グーグルはAI同士が互いの知識を高め合うためのフレームワークを構築し、一定の成果を収めています。

 専門領域に特化したAIは、すでに私たちの生活やビジネスに入り込んでいます。一方、汎用的な能力を持つAIの開発は当面は困難で、実現するとしてもかなり先だといわれています。ただ、専門特化型のAI同士がつながる未来は、意外に早く到来するかもしれません。

 これは私の、言わば妄想です(図表2「AI群同士の融合」を参照)。異なる得意分野を持つAI群がAPI(Application Programming Interface)を介して相互につながれば、どのような風景が現れるでしょうか。気象向けのAIがハリケーンの規模や進路を予測し、そのデータを株取引や為替取引で活用されているAIに送る。あるいは、サプライチェーン分野のAIと連携すれば、倉庫や物流事業者にタイムリーな指示を与えるなど被害の最小化を支援してくれるかもしれません。

 SF映画などでは、よくAIと人間との〝敵対関係〟が描かれますが、私自身は、両者の関係を補完し合いながら共創する〝パートナーシップ〟だと考えています。よりよい共創関係を築くことで、遠い未来だと見られていたことも、意外に早く実現するかもしれません。いささか楽観的といわれるかもしれませんが、私は技術と技術を制御する人間の知恵を信頼したいと思っています。

 


  1. 構成・まとめ|津田浩司、新井幸彦 撮影|竹井俊晴