なぜ、AIは
学習し過ぎてしまうのか?
さて、繰り返しになりますが、人間の脳を模した全能型のAIの場合には、汎化がきくか否かは極めて大切です。
政治の話しかできない会話AIでは、どれほど政治に精通していても全能型のAIとは呼べません。
そこで開発者は、「汎化された知能」を持つAIを製作しようとするわけですが、このときにあまりに過度な学習をさせると、逆に汎化がきかないAIになってしまうことがあります。
そして、この現象を「AIの過学習」と呼びます。
言い換えるなら、過学習とは、特定の課題を使ってAIの学習をやり過ぎてしまうことにより、その課題にしか対応できなくなってしまう状態をいいます。
人でたとえるのであれば、特定の問題と解答のセットを丸暗記したような状態となり、特定の問題の正答率は格段に高いのですが、それ以外の問題には対応できなくなってしまう症状です。
こんな話をすると、「なぜ、そんな単純なミスを犯すのか?」と疑問を感じる人もいるかもしれませんが、当然ですが、どの開発者も過学習をさせようと思っているわけではありません。
高度な開発の話になってしまうので、ここでは詳細は述べませんが、元のデータと、学習するためのモデルがマッチしていないと、この過学習に陥ってしまいます。
たとえるならば、本来は全教科で70点以上が目標で、しかし、歴史の得点があまりに低いので、歴史の勉強ばかりしていたら、気付いたときには歴史の教科書は丸暗記しているので100点取れるのに、ほかの科目ではさっぱり得点が取れない。結果、「全教科で70点以上」という目標が達成できない。その状態になったときに、やっと過学習をしてしまったことに気付くというイメージです。