ノーベル賞の対象になったAI分野の研究

 24年のノーベル物理学賞は、米プリンストン大学のジョン・ホップフィールド、トロント大学のジェフリー・ヒントン、両名誉教授が受賞した。AIの機械学習に関する成果が高く評価された。

 AI研究を振り返ると、1950年代、米国でハーバート・サイモン氏などの研究者が、数学的に人間の認知の仕組みの一部を再現する研究に取り組んだ。サイモン氏は、人間の合理性は限定的であると考え、人工知能などを研究することで意思決定の合理性を高めようとした。

 55年から56年、サイモン氏は他の研究者と協力して、「ロジック・セオリスト」と呼ばれる初期の人工知能モデルを開発した。人類の問題解決能力を部分的に模倣した計算プログラムであり、数学の定理を効率的に証明した。

 さらにサイモン氏は計算技術を用いて、組織の意思決定の合理性を高めようとする。そして78年、同氏はノーベル経済学賞を受賞した。ただ、70年代はオイルショックによる米国経済の不安定化、コンピューターの処理能力の問題などで、AI研究の「冬の時代」と呼ばれていた。AIに対する社会の関心が低下していたのだ。

 わが国では79年、福島邦彦氏らがコンピューターを用い、脳の学習過程を再現するモデル(ネオコグニトロン)を開発した。続く80年代、福島氏らの先行研究を基礎に、ホップフィールド氏は「ホップフィールド・ネットワーク」と呼ばれる機械学習モデルを開発した。

 ホップフィールド氏は、物理学と神経科学を融合して「ニューラル・ネットワーク」(脳の神経細胞〈ニューロン〉と、神経回路網を数式で模倣した学習モデル)の理論基盤を整備。そうして85年、ヒントン氏はホップフィールド氏の研究を応用して「ボルツマン・マシン」を開発し、未知のデータの仕組みを確率的に算出する手法を提唱した。

 その後06年、ヒントン氏はサンプルデータ全体の特性を効率的に捉えるAI学習方法(オートエンコーダー、エンコードは符号化、記号化を意味)を発表した。オートエンコーダーは、重要性の高いデータと低いデータを選別し予測と結果の誤差抑制に力を発揮する。

 AIは半導体の性能向上、世界経済のデジタル化などで加速度的に成長した。12年、ヒントン氏、その教え子のイリヤ・サツキバー氏、アレックス・クリジェフスキー氏が開発した「AlexNet」は、画像認識技術の競技会(ILSVRC2012)で圧勝した。ヒントン氏らは米エヌビディアの画像処理半導体(GPU)と、「CUDA」と呼ばれる開発ソフトウエアを用いて学習モデルを開発する。