大統領令にくっきりと刻み込まれていたのは、オープンAIではなく、大富豪のEA信奉者たち(編集部注/EAとは、「Effective Altruism」すなわち効果的利他主義のこと。時間とお金を効果的に投資して世界を改善しようとする考え方に、テック大富豪の多くがとりつかれた。当初は「貧困の撲滅」を運動目的としていたが、近年は主に「AIの暴走による人類殺戮の防止」に移行している)の足跡である。

 彼らは皮肉屋が「AI破滅主義者産業複合体」とでも呼びそうな、各種のシンクタンクや研究所、団体の、クモの巣のようにつながり合う巨大なネットワークに資金を提供してきた。

 大統領令にとくに深い影響を与えたのが、元祖政府系シンクタンクの「ランド研究所」だ。

 ランドは近年オープン・フィランソロピー(OP)(編集部注/テック大富豪が立ち上げた慈善団体「グッド・ベンチャーズ」が寄付先を探す際、EAに適う活動をしているかどうか調査・評価する団体)の数千万ドルの資金提供を受けており、所長はEA信奉者を自称するジェイソン・マシーニーが務める。

 マシーニーはアンソロピックの理事を選定する長期利益信託の元メンバーであり、ヘレン・トナーとターシャ・マッコーリーを現在の職に抜擢した人物でもある。オープンAIの理事を辞任後、トナーは「安全保障・先端技術センター(CSET)」に戻り、マッコーリーはランドに移籍した。

 ポリティコ誌にリークされた音声録音によると、マシーニー所長はランドの全体会議で、国家安全保障会議と国防総省、国土安全保障省が「将来のAIシステムによる壊滅的リスクを憂慮して、ランドに分析を依頼した」と述べた。

 ランドの研究員たちが大統領令に含めることに成功した条項の中で、とくに物議を醸したものは、一定規模を上回る高度なAIモデルに課された、開発に関する詳細情報の報告義務だった。

オープンAIに否定的な規制法案が
成立しようとしていた

 2024年9月。前年に上院議員リチャード・ブルメンタールが、アルトマンをとても「建設的だ」と褒めそやしたのと同じ上院会議室で、ヘレン・トナーが証言に立ち、オープンAI理事会での経験を通して、「金銭が絡むといかに内部の防護柵が脆くなるか、そしてなぜ政策立案者の関与が不可欠なのか」を学んだと述べた。

 一方、そのすぐ後に、カリフォルニア州知事ギャヴィン・ニューサムが、主要なAI企業が集中する同州のAI安全法案に拒否権を行使した。オープンAIは法案に反対していたが、アンソロピックは法案の修正に積極的に関与していた。