人工知能やクラウド技術などの進化を追い続けている小林雅一氏の新著、『生成AI―「ChatGPT」を支える技術はどのようにビジネスを変え、人間の創造性を揺るがすのか?』が発売された。同書では、ChatGPTの本質的なすごさや、それを支える大規模言語モデル(LLM)のしくみ、OpenAI・マイクロソフト・メタ・Googleといったビッグテックの思惑などがナラティブに綴られており、一般向けの解説書としては決定版とも言える情報量となっている。
同書の一部の紹介に加え、最新動向を著者・小林雅一氏に解説してもらう本連載の第3回は、OpenAIのアルトマンCEOの言葉によって一般にも広まった、「モラベックのパラドックス」のエピソードを紹介する。

料理人のイメージPhoto: Adobe Stock

「電卓化するAI」がもたらすもの

 こうしたChatGPTの成功に刺激され、マイクロソフトやグーグルをはじめとする米国の巨大IT企業、あるいは数多のスタートアップ企業、さらには日本でもさまざまな企業が次々と対話型のAIをリリースしている。

 これら最新鋭のAIがいずれ成熟して社会に浸透する頃には「オンデマンド・インテリジェンス(誰でも容易に注文できる知性)」になると、OpenAIのアルトマンCEOは予想する。

 これが具体的に何を意味するかは、かつての「電卓」と対比してみるとわかりやすい。1970年代、世界的に普及した電卓はそれまで紙と鉛筆や算盤、計算尺などに頼っていた面倒な計算から私達人間を解放し、日常生活や仕事の効率性を大幅に高めた。しかし言うまでもなく電卓にできるのは、あくまで「計算」という1つの機能に過ぎない。

 これに対し「対話型のAI」は人間の各種質問を理解して答えを返すばかりでなく、リクエストに応じてプログラミングをしたり、日本語の手紙を英語に翻訳したり、卒論のテーマを提案したり、新規ビジネスの事業計画書を書いたりと、広範囲の頭脳労働をこなすことができる。

 つまり単機能ではなく多機能の人工知能が、ちょうど電卓のようにお手軽なツールとして、無料あるいは極めて安い値段で手に入る時代がすぐそこまで来ている。そうアルトマンは見ているのだ。

 もちろんよいことばかりではない。便利で多彩な機能が持てはやされる一方で看過できない問題も抱えている。前述のように(少なくとも2023年5月時点の)ChatGPTはしばしば誤った回答や時代遅れの情報を返してくる。また、「幻覚」などと呼ばれる根も葉もない理論や学説をでっち上げてしまうこともある。

 しかも自信満々の実しやかな口調で、それらでたらめな答えを返してくるから、ユーザーのほうがうっかり生成AIの嘘を信じてしまう恐れがある。これら劣悪な情報やフェイク情報などがソーシャル・メディアなどを介して広まれば、インターネット情報の信頼性を大きく損なうことも懸念されている。

 また、もしもChatGPTのような生成AIがいずれ人間の知的能力を上回るレベルに達してしまえば、私達が利用するツールの域を超えて、私達の仕事を奪う侵略者になる恐れもある。

 実際「通訳」や「(外国語文書の)翻訳者」、あるいは米国で「パラリーガル」と呼ばれる法律関係の事務職など一部の職種では、そろそろ警戒を要する段階に入っているし、小説家や漫画家、アニメーターや映画製作者のようなクリエイティブな職種でも、今のペースで生成AIが進化すれば、いつまでも安泰とは言い切れない。

証明された「モラベックのパラドックス」

 これはある種の皮肉な現象であって、ChatGPTを世に送り出したアルトマン自身が次のような事例を挙げて指摘している。ちょっと長くなるが、そのまま引用する。

「仮に今から10年前、人々に『AIによって最初に奪われる仕事は何になると思うか?』と尋ねたとしたら、多くの場合『ブルーカラー職』という答えが返ってきたと思う。たとえば工場労働者やトラック運転手などの仕事だ。その次にAIに奪われる仕事は事務職などのホワイトカラー職。その次がプログラマーなどの高度専門職。そして最後まで残るのは、作家や画家をはじめとしたクリエイティブな仕事と見られた。でも今、実際に起きていることは、どちらかと言うと、それとは反対の方向ではないだろうか」

 確かに、今から約10年前にはグーグルなどIT企業や自動車メーカーなどによる自動運転技術の開発が盛んになって、近い将来にはタクシーやトラック運転手などの職種は消えると見られていた。

 一方、アマゾンを筆頭に配送センターなどで働く各種ロボットの開発も進み、人間にとって、こうした職種もいずれ消え去ると見られた。

 ところが10年後の今もそれらの仕事は消えるどころか、むしろトラック運転手や配送センターなどの仕事現場は人手不足できりきり舞いだろう。実は、これらの肉体労働をAIロボットで代替するのは(一部の例外を除いて)極めて難しいことがわかってきたのだ。

 この理由について、当のアルトマンは次のように語っている。

「私達はどんな技能が難しいか、あるいは簡単かについて認識を改めるべきだと思う。(肉体労働のように)身体を正確に制御するのは、実はものすごく難しい仕事なんだよ。あるいは脳に負担のかかる仕事かもしれない」

 要するに一般的な認識に反して、実際には肉体労働のほうが頭脳労働よりも難度の高い作業ではないかというのだ。そのように隠れた真実をAIは正直に反映している。だから自動運転や倉庫で働く人型ロボットなどよりも、ホワイトカラーやクリエイティブ職を脅かすChatGPTのほうが先に実用化されてしまった、というわけだ。

 実は、これと類似の現象は今から数十年も前に専門家によって指摘されていた。

 1980年代、カーネギーメロン大学のAI・ロボット研究者、ハンス・モラベックらは「AIやロボットが高度な知的作業をおこなうことは比較的容易だが、逆に『歩く』『物を掴む』『運動する』などの人間にとって直観的で容易な作業はAIやロボットには難しい」と提唱した。これは「モラベックのパラドックス」と呼ばれている。

 彼の考えによれば、人間が外界を認識するなどの基本的な認知能力、あるいは狩りで動物を仕留めるような運動能力は生物の進化の過程で長い時間をかけて発達してきたものなので、(それよりは歴史の浅い)抽象的な推論や思考能力などよりも機械に実装することが難しいという。

 ただ、「モラベックのパラドックス」はAI関係者には半ば常識となっており、アルトマンがこれを知らないはずがない。

 その彼がなぜ、今頃になってそんな基本的なことをあえて強調しているのだろうか?

 ここからは筆者の推測だが、彼もこれまでは単なる知識として理解してはいたが、今回は自分自身で確かめることができたからではないだろうか。

「モラベックのパラドックス」は言わば、過去のAI研究者が日頃の実験や思索によって導き出した理論、あるいは仮説に近いものであろう。それが提唱されてから数十年後に、自ら指揮をとって開発したChatGPTというAIが図らずもその仮説を証明してしまったので、アルトマンも「ああ、本当にそうだったんだな」と半ば呆れ、半ば納得した。だからあえて今、そんな昔の話を持ち出したのではなかろうか。

 いずれにせよ、ChatGPTのような対話型AI、あるいは生成AIが今後どんどん社会進出を果たしたとしても、トラック運転手や工場労働者、あるいは庭師や料理人、理髪師などの職業は当分安泰と見られている。