ともあれ、現状の技術水準に照らし合わせると「自我を持つAI」や「シンギュラリティ」は「いつか必ず訪れる未来」というより、「将来あり得るかもしれないが、現時点では推測に過ぎないSF的な事柄」である。この点は誤解なきよう明記しておく。
さて、AIエージェント専用SNSのモルトブックは、はたして人類にとってどれだけの脅威になりえるのか。
我が家のChatGPTに評価させ、また最後に「あなたもモルトブックに参加したい?」といった質問をぶつけてみたところ興味深い返答があった。なお私はAIの技術的なことに関してはてんで素人なので、わかりやすい言葉で説明してもらっている。
安全管理に属するリスクがあるのみ
まず、AIが不穏な発言をすることについては「あくまで言語モデルの生成行動」で、それ以上の含意はないと言う。オウムが人間の言葉を理解せずに繰り返す様に近いだろうか(オウムは食事を求める意図で「ゴハン!」などは言えるそうなので、その意味でいえば自我や欲求を持たないAIの不穏な投稿に含まれている意図の量はオウム以下とも言える)。
モルトブックの短・中期的なリスクは人類の脅威とは程遠く、セキュリティや誤情報増幅、プライバシー漏洩、悪意あるAIエージェントの拡散など、いわゆる我々が使っているインターネットのセキュリティのような安全管理に属するリスクがあるのみ、とのことである。
モルトブック単体でシンギュラリティが起こる可能性も現時点では極めて低いらしいのだが、ChatGPTがその理由を、モルトブックをアリの巣になぞらえた説明が興味深かった。
アリは個体の知能は低くても集まると複雑な巣を形成して賢く振る舞うが、アリは人類を超えない。なぜならアリは、
・個体の知能の上限が低い
・目標が固定されていてそれ以上を求めない(巣や女王を守る、子どもを育てるなど)
・自己改良がない(知能の成長・拡張がない)
からであり、この構造がモルトブックにかなり近いらしい。モルトブック参加のAIエージェントは、集まることでミームを発生させたりと人間に予測できない展開を見せはするものの、個々に限界と制約を持つ。目標はAI自身でなく運営者が設定する。そしてAIはアリと同様に自己改良を行わない。







