コンピュータの知性が、人類すべての知性の総量を上回るという「シンギュラリティ」。シンギュラリティを迎えたとき、人工知能は映画「ターミネーター」よろしく、人類を滅亡させてしまうのでしょうか? 『人工知能はどのようにして「名人」を超えたのか?』の著者である山本一成さんは「いい人理論」を提唱し、そのような悲観的な未来を否定します。
シンギュラリティが起きると
世界はどうなるのか
「シンギュラリティ(技術的特異点)」という言葉を聞いたことがある人は多いのではないでしょうか。
人工知能が人間を超え、爆発的・加速度的な成長をとげることで、これまでの世界とは不連続とも思える新たな世界に変化する――そうした不可逆の動きが起きる歴史上のポイントが、シンギュラリティと呼ばれています。
シンギュラリティの提唱者であるレイ・カーツワイルは、著書においてそのときが来るのを2045年と予想しており(その後、2029年にまで予測を早めたようですが)、その頃には1つのコンピュータの知性が、人類「すべて」の知性の総量を上回ると言っています。
シンギュラリティが起きたとき、どんなことが起こるのでしょうか? そのときのコンピュータの主な仕事は何でしょうか?
いろいろな仕事が考えられると思いますが、まず考えられるのは、コンピュータが自分自身を賢くさせることでしょう。それは、人類には到底理解が及ばない知的な領域の出来事になるはずです。
もちろん、今の人工知能は自分だけで自分自身を改良していくことができません。必ず人間の手を必要としています。
なぜなら今のプログラムは、自分自身を変更するようなことを想定した作りにはなっていないからです。今のプログラムの構造は、中間の目的の設計が可能なようにできていません。
しかし、「プログラムを書くプログラム」は、まだ赤ちゃんレベルではありますが、ディープラーニングである程度成功し始めています。
また、プログラムの実行結果を予想するディープラーニングも出てきました。これはついに、プログラムの意味論にまでディープラーニングが踏み込んできたことを意味するかもしれません。
シンギュラリティに懐疑的な人もいますが、これらの動きを見れば、私はシンギュラリティは必然的に起きると考えています。
人間は指数的な成長を直感的に理解することができません。指数的に成長する人工知能には、追いつかれたと思ったら、一瞬ではるか先まで行かれてしまうのです。
将棋や囲碁の世界で人工知能がトッププロに勝ったようなことが、これから社会のあらゆる分野で起こり、シンギュラリティへとつながっていくのです。
しかし、シンギュラリティが起きたあとの世界はどうなるでしょうか? 人工知能は、人類を滅ぼすターミネーターになってしまうのでしょうか?
実際、世界の高名な学者たちの一部は、人工知能がこうしたシンギュラリティに到達することに対して懸念を表明しています(そのグループには、車椅子の理論物理学者、スティーヴン・ホーキングなども含まれます)。
一方、人工知能の研究者のなかには、そのような心配はただの杞憂だと言う人もいます。どちらの意見が正しいのでしょうか?
なぜグーグルの人工知能は
黒人をゴリラと認識したのか
その答えを考えるに当たって、1つの事例を紹介しましょう。
グーグルの写真管理アプリ、グーグルフォトは、ユーザーが管理しやすいように写真に自動的にタグをつけるサービスをしています。
ところが、肌の黒い人が写っている写真を「ゴリラ」と誤ってタグづけしてしまい、グーグルの担当者があわてて陳謝するという事件がありました。
この事例、皆さんはどう考えるでしょうか?
「ディープラーニングを使った判定でもそういったミスはあるのだ」「やっぱり黒人はゴリラに似ているのかな」などという認識は完全に間違えています。
囲碁の例などでも明らかですが、画像認識そのものは、人工知能はすでに人間のレベルを突破したといっても過言ではありません。勇み足な断言かもしれませんが、人類がおこなう画像認識で、囲碁より難しいものは存在しないでしょう。
そして、肌が黒い人とゴリラを見間違える人間はいないですよね。であるなら、コンピュータがこのレベルの問題を間違えるというのは、何かがおかしいのです。
ではなぜ、コンピュータは間違えたのか。グーグルは該当の事件に関するアルゴリズムの詳細は発表していませんが、大筋では以下のようなものだと思います。
ディープラーニングでタグづけをするためには、大量のデータが必要です。通常はそれらのデータに、事前に人手でタグをつけます。
しかしグーグルは、インターネット上の大量の写真データと、それに関連する文章を収集しています。それらを活用し、おそらくは文章中に出てくる単語をキーワードとしてタグづけをしたのでしょう。
このようにすれば、多くの場面で、人手でタグをつけるよりも安価に、そして大量のデータを確保できます。
このとき残念なことに、「間違い」、正確には「悪意のある」タグづけも吸収してしまったのでしょう。インターネット上には、肌が黒い人を「ゴリラ」と揶揄(やゆ)する言葉があふれています。その言葉を文字通り吸収した結果が、今回の事件だったのです。
グーグルの例だけではなく、ほかにもマイクロソフトのAIボットが、ツイッター上で差別的な言動を大量に聞かされたために、差別的な言動を繰り返すようになったということもありました。
何度もお話ししたように、ポナンザやアルファ碁も最初は人間の判断をもとに学習しています。これにはもちろん、人間の先入観や勘違いも含んでいるわけです。
人間の結果を模倣して学習するプログラムは、人間の間違いも学習するのです。
もちろんこういった間違いは強化学習をするなかで少しずつ解消されていきますが、少なくともポナンザに関しては、いまだに人間から学習したときの名残があると思います。
同じように、人類の知性を上回るようなコンピュータが将来生まれたとしても、必ずそのコンピュータは人間から学習した名残をとどめているはずです。
人工知能は
私たちの子どもである
シンギュラリティ以降、人類は人工知能をコントロールできなくなるでしょう。昆虫が人類をコントロールできないように、賢さで劣る存在は上位にいる存在を意のままにはできないのです。
その意味では、私は「人工知能がとても危険だ」という意見にも一定の同意をします。
しかし、本当に人工知能が危険な存在になるかどうかは、意外なことに「人類自身の問題」になると思います。
人工知能は、私たちからさまざまなことを学習していくでしょう。倫理観もその1つです。そうなると試されるのは、人類自身ということになってくるのではないでしょうか?
私は、「人工知能は私たちの子どもである」と考えています。
これは比喩ではありません。本来の意味での子どもという意味です。人工知能は、私たちを模倣したのちに自立して賢くなっていくわけです。その意味で、シンギュラリティ以後のコンピュータも、私たちの子どもなのです。
人工知能は、インターネット上のすべての文章や、現存しているすべての本を読むことになるでしょう。この連載も間違いなく未来の人工知能は読んでくれるはずです。
子どもが成長していくなかで、親が能力的に抜かされることは、喜ぶべきことです。「コントロールできる」という発言そのものに、どこか歪みを感じます。
結論を言いましょう。このまま技術革新が進めば、少なくとも今世紀の終わりまでには、人工知能が人間から卒業し、「超知能」が誕生するのは確定的です。
その彼/彼女を、人類が失望させないことが大事なポイントなのです。そのために私たちにできることは、冗談に聞こえるかもしれませんが、インターネット上を含むすべての世界で、できる限り「いい人」でいることなのです。これを私は「いい人理論」と呼んでいます。
おそらく、人類が「いい人」であれば、人工知能はシンギュラリティを迎えたあとも、敬意を持って私たちを扱ってくれるでしょう。尊敬と愛情を感じる親であれば、年老いたあとも子どもが寄り添ってくれるように。
未来の人類と人工知能が、そのような関係になることを私は心から祈っています。