膨大な量の画像だって
短時間でAIに学習させられる

夏目 ちなみに、AI導入までにどんな作業が必要でしょうか。写真を撮ってパソコンに読ませるバイトが必要で、遅いとバイトリーダーに叱られる、とかないですよね? (笑)

岡田 ないですね(笑)。自動で撮影した画像をハードディスクのようなものに入れ、GPU(グラフィックス・プロセッシング・ユニット=画像に関する処理を速く行う特殊なプロセッサー)に読ませます。

 画像のディープラーニングを行う場合、画像が何百万枚、ピクセル数が1000×1000、などとなったら何億、何兆回もの単位の計算が行われますが、現在のGPUは、1回あたり0.000何秒という短時間で画像を読み込んでくれます。なので「これじゃ何百年かかる」といったこともなく、数十時間~百数十時間で終わりますよ。

夏目 そんなに多くのデータから抽出したものって、ものすごく重そうですけど…?

岡田 アルゴリズムにもよりますが、一般的に普及しているAIアルゴリズムが抽出する特徴量のデータは数十キロバイト~数メガバイト程度です。

夏目 ファミコンのゲームかよ。

岡田 データは構文の連続なんです。たとえば、AIに犬と猫の違いを学習してもらうケースなら、「画像にこの特徴を発見したら何%の確率で犬と判断する」という構文の連続なので、容量は少ないんですよ。

夏目 しかし、知れば知るほど人間と似ていますね。僕らだって、今までに見てきた犬や猫を全部記憶しているわけじゃなく、犬や猫を見てきた記憶の中から「犬ってこんな感じ」と特徴だけ抽出して判断してるわけで…。