「AIは予測不能で危険」と
考える人が提唱していることとは
動画を要約すると、核兵器という終末的な問題に対して、原子力科学者連盟(核物理学者たちのグループ)によって提示された解決策は、「世界政府」でした(※編集部注:動画では、「世界の国々の代表者が、一堂に会して「戦争を廃止する法律」を作ることで、原子エネルギーが戦争の脅威から解放されて、あらゆる国のあらゆる人々にとって、世界を一つに融合させる大きな力となり得る」としている)。
もちろん、1990年代には(冷戦が終わり)いくらか安堵の溜息が漏れました。しかしそれ以来、終末的なムードは高まっています。シリコンバレーの言葉で言えば、「存在論的リスク(人類を滅ぼし得るリスク)」、すなわち人工知能、気候変動、生物兵器、核戦争、出生率の低下です。
私は、こうした終末的なリスクや科学技術の危険性を過小評価したくはありませんが、そのリストにもう一つの「存在論的リスク(人類を滅ぼし得るリスク)」を加えたいと思います。それは、全体主義的な世界政府というリスクです。
サンフランシスコを拠点とする公共知識人で、AIに隣接するテック・コミュニティで非常に影響力のあるエリーザー・ユドコウスキー氏は、2025年の秋に出版した著書で、こうした時代の空気を見事に捉えました。
そのタイトルは、AIについてこう述べています。『超知能AIをつくれば人類は絶滅する』(原題:IF ANYONE BUILDS IT,EVERYONE DIES)。
そして、なぜAIが危険で予測不能なのか、どのように制御不能に陥るのかというシナリオについて、あらゆる種類の科学的・技術的な議論が展開されます。そこには非常に多くの科学的・技術的な精密さがあるのですが、政治の話になると、その解決策は曖昧で全体主義的なものになります。
ここでもまた、解決策は「一つの世界政府(ワン・ワールド・ステート)」なのです。ユドコウスキー氏の著書を引用します。
AIによる人類滅亡か
全体主義的な管理社会か
「地球上のあらゆる場所において、これまで行われてきたようなAI企業によるAI開発の突き進みを、違法としなければならない。もしシンガポールで合法のままであれば、誰かがシンガポールでそれを行うだろう。南アフリカで合法のままであれば、誰かが南アフリカでそれを行うだろう」
そして、「最も安全な策は、(規制の)閾値を低く設定することだ。例えば、2024年時点の最も先進的なGPU(AI開発に不可欠な演算装置)を8個持つレベルに設定し、国際的な当局の監視なしにガレージにそれよりも強力なGPUを9個持つことは違法である、とするのだ」と述べています。
私たちは、(人類滅亡か、全体主義的な管理社会かという)二つの受け入れがたい選択肢の間に、細く険しい「第三の道」を見出さなければならないのです。
◆◆◆
>>【第1回】「【独占】「AIはバブルなのか?」→ピーター・ティールが警鐘「日本に非常に奇妙なことが起こる」」を読む
>>【第2回】「【独占】「日本にとって死活的な問題となる」ピーター・ティールが激白する「AIブームの不都合な真実」」を読む







