AIモデルが、なぜ実際の仕事をこなせるほど実用的になったのかIllustration:Eliot Wyatt for WSJ

 人工知能(AI)が超知能に向かう過程で面白いことが起きた。エンジニアたちが、人間が実際の仕事をこなすのに十分なほど、AIを実用的なものに仕上げてしまったのだ。

 彼らはそれをどのようにして成し遂げたのか。その手がかりが、最近起きたソフトウエアの流出で明らかになった。

 グーグル、オープンAI、アンソロピック、そしてその競合他社が開発する最先端AIモデルの内部構造は、数十億ドル相当の価値がある企業秘密だ。そのため、アンソロピックの至宝とも言える「クロード・コード」のソースコードが意図せず流出したことは、大きなニュースとなった。この流出によって、同社のサービスがシリコンバレーで支持される理由となったシステムの、そしてチャットGPTを手掛けるオープンAIより先に黒字化する道筋をつけたシステムの内側が明らかになった。

 流出したコードでクロードの複製を作ることはできない。しかし、チャットGPTのデビュー以来何が変わったかを示す有益な例として十分な情報が明らかになった。

 現在のAIは、ほんの1年前と比べても有用性と信頼性が格段に高まっており、それには三つの重要な要素が関係している。それらを以下に示す。

知識が増え、知らないことは調べられるように

 生成AIを支える大規模言語モデル(LLM)が黎明(れいめい)期にあったころ、開発者たちは書籍、ウェブサイト、ソーシャル投稿、動画といった利用可能なデジタルメディアを使ってモデルを訓練していた。今では、実際の人間がLLMのためだけにデータを生成している。かつては小規模な産業だったものが、今では、企業価値が数十億ドル規模のスタートアップが人間に報酬を払い、苦労して培った専門分野の知識をボット向けの教材に凝縮させている。

 インドのベンガルール在住のAI研究者で、流出したアンソロピックのソースコードを分析したヒマンシュ・ドゥベイ氏によると、現在の最先端AIの開発者たちは、そうした専門知識をモデルに注入することに必死だ。