「重み付け」を調整するのがベース
こうして「重み付け」を調整していくのが、AIにとっての「学習」の仕組みのベースです。
また、複雑な階層のニューロンに対して人が重み付けを調整するのは到底不可能な話ですので、この値は自動計算できる仕組みが開発されています。
もっとも、第4回連載と今回の2回の講義はあくまでも「基礎知識」ですので、そこまでは踏み込まずにこれ以上の解説は控えます。
ただし、学習意欲旺盛な人のために補足だけしておくと、この自動計算の仕組みの代表的なものとして「誤差逆伝播法(バックプロパゲーション)」と呼ばれるものがあります。
最近ではさらに研究が進んで、階層を重ねることによる精度の劣化の問題や、計算速度の問題などが解決されてくると、今度はある刺激を分類するためにキーとなるニューロン、つまり、典型的な特徴に反応して発火しやすいニューロンやニューロン群の自動検出ができるようになってきています。
一言で言ってしまえば、AIに膨大な量の刺激を与えるだけで分類ができるということですが、この点に関しては「畳み込み(Convorution)フィルタ」を使った「CNN」や「再帰的(Recurrent)」な接続構成によって、連続的な情報を演算結果に反映できるようにした「RNN(再帰型ニューラルネットワーク)」といった仕組みがあります。
こうしたディープラーニングをする「子どものAI」。
一方で、ヒトが一から教えて丸暗記させる「大人のAI」。
同じAIといえども、両者でどれほどの違いが出るのかは、第1回連載の中で「子どものAI」である「Google翻訳」と、「大人のAI」である別の翻訳サービス(X翻訳)に同じ英文を日本語に翻訳させて、まったく異なる結果になるケースを紹介しています。現在一番人気の第2回連載「近い将来、『税理士や翻訳家は失業』という予想は大間違い」と併せてお読みいただけたら、望外の喜びです。