人工知能やクラウド技術などの進化を追い続けている小林雅一氏の新著、『生成AI―「ChatGPT」を支える技術はどのようにビジネスを変え、人間の創造性を揺るがすのか?』が発売された。同書では、ChatGPTの本質的なすごさや、それを支える大規模言語モデル(LLM)のしくみ、OpenAI・マイクロソフト・メタ・Googleといったビッグテックの思惑などがナラティブに綴られており、一般向けの解説書としては決定版とも言える情報量となっている。
この連載では同書の一部の紹介に加え、生成AIの最新動向を著者・小林雅一氏に解説してもらう。
「AI界のゴッドファーザー」ジェフリー・ヒントンの2つの懸念
生成AIは史上最速にして最大の革命を人類にもたらす──『生成AI』の執筆を終えた今、筆者はそう確信している。
OpenAIの共同創業者であるサム・アルトマン、グレッグ・ブロックマン、イリヤ・スツケヴァーらは、「国際原子力機関(International Atomic Energy Agency:IAEA)に匹敵する「AI開発の監督・規制機関」を設けるべきだと主張している。
生成AIのような超先端技術を開発するOpenAIの関係者自らがAI開発の監督・規制を求めるのは若干奇妙な印象も受けるが、そこには恐らく政治的な駆け引きも作用しているのだろう。
本書でも紹介した生成AIによる「フェイクニュースの拡散」や「雇用破壊」などの懸念に対し、今後各国・地域の政府は何らかの監視・規制策などを打ち出してくる。特にEU(欧州連合)の規制策はかなり厳しい内容になりそうだ。
そうであるなら、むしろOpenAI自身が機先を制する形で生成AIの監督・規制を促していくほうが、自らの研究開発やビジネスへの悪影響を最小限に抑えることができる──そのようにアルトマンらは考えたのではなかろうか。
しかし、こうした政治的駆け引きの一方で、OpenAIの創業者らが本気で生成AIの長期的な危険性を憂慮しているのも事実だろう。その監視・規制を求めるに際して、彼らが自社のウェブサイト上に掲載した内容には「人類の存亡に関わるリスクに対し、我々は受動的な姿勢に終始することはできない」と書かれている。
これと同じことは、半世紀以上にわたってニューラルネットの研究開発をリードし、「AI界のゴッドファーザー」と称されるジェフリー・ヒントンも主張している。
カナダ・トロント大学の教授であるヒントンは、2013年からグーグルの研究チームにも参画し、音声検索をはじめさまざまなAI製品の開発に従事してきた。その彼が2023年4月、突如グーグルを退社して注目された。理由は「グーグルに気兼ねすることなく、AIの危険性について語れるようにするため」という。
以来、米ニューヨーク・タイムズや日本のNHKをはじめ世界各国のメディア取材に応じ、生成AIなど先端的な人工知能の危険性に警鐘を鳴らしている。
ヒントンは生成AIの短期的な危険性として、(『生成AI』でも紹介した)「フェイクニュースの拡散」を挙げている。すでに米国では、野党共和党の広告動画に画像生成AIで製作した「中国が台湾を侵略するシーン」が使われるなど、その兆候が現われている。
また2023年5月には、「米国防総省(ペンタゴン)での爆発事件を撮影した」とするフェイク画像がネット上に出回ったが、これも恐らく画像生成AIで製作されたと見られている。
日本でも2022年9月、静岡県で水害が発生した際、「ドローンで上空から撮影された洪水の様子」とされる映像がツイッターで拡散したが、これも後日、画像生成AIで製作されたフェイク画像であることが確認された。
すでに事実と虚構の境界線が消失しつつあり、この一点のみでも人類社会が大きな影響を受けることは明らかだろう。
さらに、ヒントンが「AIの長期的な危険性」として挙げるのは、「AIが人間の知的能力を上回った場合、人類を支配しようとしてくる可能性」だ。
これまで彼は、「AIが人類全体の知的能力を凌駕する」とされる「シンギュラリティ(技術的特異点)」などSF的なAI脅威論には懐疑的な姿勢を貫いてきた。それだけに、ここに来てそうした脅威論の支持者へと鞍替えしたことには、AI関係者の間でも高い関心が集まっている。
ヒントンが最も警戒しているのは、生成AIのベースにある大規模言語モデル(LLM)だ。少なくとも、つい数年前まで彼は「LLMの能力は人間を上回ることはない」と見ていた。
しかし2022年にグーグルが開発中の先端LLMを目の当たりにしたとき、その見方が変わった。それは全面的ではないが、少なくとも一部の知的能力では、人間の脳を上回っていると感じたという。
1940~50年代にかけて、LLMのようなニューラルネットの原初モデルが開発された当時は、「ニューロン同士の接続部(シナプス)」など本物の脳を多少は参考にしていた。しかし、それ以降長年にわたる研究開発を経て「本物の脳」とは事実上異なる情報処理の仕方で「人工的な知能」を実現するに至った。
つまりLLMのようなAIと私達の脳は「異なる種類の知能生成器」であると見るのが妥当だ。しかし、そのように「脳とは異なるAI」が(一部の分野にせよ)「脳よりも優れた知的能力」を形成するに至ったことはヒントンに衝撃を与えた。
「今から5年前(のLLM)と今(の実力)を比較してみなさい。このペースでAIが成長していったら一体何が起きるのか。(想像するだけでも)怖くなる」とヒントンはニューヨーク・タイムズの記者に語っている。
前述のように彼が「AIは人類を支配しようとしてくる可能性がある」と語るとき、そこにはLLMのような生成AIが、いずれは自意識を育むことを想定しているはずだ。AIに自意識がなければ、どんなに超越的な能力を持っていたとしても、それは所詮「石器」や「刃物」のような道具と本質的に変わりがないからである。単なる道具が人類支配を試みようとするはずがない。
LLMは人間の意識の源と見られるニューロン(神経細胞)のような生物学的な存在ではなく、単なる数学的なモデルに過ぎない。この点は最先端のトランスフォーマー・モデルになってからも同じだ。「所詮はその程度のAIが、人間のような自意識を育むことはあり得ない」と多くの人は思うはずだ。
「創発」とは何か?
しかし、ここで指摘したいのが「創発(Emergence)」という概念だ。
たとえばグーグルが2022年11月に自社ブログで発表した「Characterizing Emergent Phenomena in Large Language Models(大規模言語モデルにおける創発現象の特徴)」というレポートには、創発とは何を意味するかがわかりやすく解説されている。
この報告書によれば、LLMのトレーニング(機械学習)量やパラメーター数などをどんどん増やしていったとき、それらがある閾値を超えた時点で、急激かつ飛躍的な性能の向上を見せるという。たとえば突如「三段論法的な推論能力」を育んだり、米国の大学院入試に使われる「GRE(Graduate Record Examination)」と呼ばれる標準テストの問題を解けるようになったりする。これがAI開発における「創発」と呼ばれる現象だ。
この「創発」とは本来、「生物の進化論」によく出てくるコンセプトだ。
たとえば脳内の電気信号を伝達するニューロンのように個々の要素としては単純なものでも、それらが何十億、何百億個も複雑に絡み合うときに、突如として予想もしないような新しい能力や性格を育む。これが生物や生命現象における創発であり、私達人間が持つ「意識」も生物の進化のプロセスで、脳内のニューロン接続の複雑さがある閾値を超えた段階で現われた創発の一種なのではないか、と見られている。
確かにLLMのような生成AIと私達の脳は異なる種類の知能生成器である。しかし、たとえそうだとしても今後AIがAIなりの仕方で進化を遂げるとき、そのメカニズムの複雑さがある閾値を超えた段階で、ある種の意識を育む創発が起きることは十分あり得る──。
ヒントンはそこまで明言していないため、これは正直、筆者の推測に過ぎない。しかし逆にそうでなかったとすれば、「AIが人類を支配するかもしれない」といったヒントンの憂いが生じるとは考え難いのである。
ウェブ上に蓄積された膨大な知識や英知、そればかりかさまざまな偏見や憎悪までも呑み込んで消化吸収する生成AIと、それを生み出した人類は、これまでの生物学的な進化の枠組みを超えて、新たな進化のフェーズに突入したのではないだろうか。