ChatGPTの台頭で世界の労働市場は変わるか?
AI活用におけるプライバシーと倫理の問題
――ChatGPTの台頭が話題ですが、こうしたAIの活用がより高度になることで、世界の労働市場は変わるのでしょうか?
ショーン まず、一般的なAIと、私たちが使っているAIの違いという観点からお話しましょう。
例えば、ちょっとせきが出るというとき、とりあえず、近くのかかりつけの医院に行きますよね。そこでせき止め薬を処方してもらうでしょう。世の中には、かかりつけ医のような一般開業医が必要です。ChatGPTのような一般的なAIは、ちょうど、世の中にとってのかかりつけ医のようなAIです。
これに対して、私たちスカイハイブのAIは、大病院の専門医のようなものです。スカイハイブのデータやAIのアルゴリズムは、労働市場におけるリスキリングの問題を解決することに特化したものなのです。
モハン 私たちはスカイハイブを設立したとき、「Quantum Labor Analysis(量子労働分析)」という方法を独自に開発し、論文を発表し、特許も取っています。
これは、AIを使って労働力を最も細かいレベルで分析するアルゴリズムです(「最も細かい」という意味で「量子」という言葉を比喩的に使っています)。
以前は、労働市場において、最も粒度の細かいところまで理解できるテクノロジーはありませんでした。例えば、Googleで検索すると、公開されている情報を基に、「この建物で働く人の人数と、隣の建物で働く人数を比較する」といったことが可能かもしれません。しかし、量子労働分析は、「この建物で働く人々の個人個人のスキルセットを、隣の建物で働く人々の個人個人のスキルセットと比較する」といったことさえできるのです。
GoogleやChatGPTは公開されている情報しか参照しないので、決して各人のスキルを細かい要素にまで分解して教えてくれはしません。これが一般的なAIと、私たちのAIとの大きな違いです。
そして、もうひとつの違いは、AIの背後にある、大規模言語モデル(Large Language Models/LLM)の独自性によるものです。
私たちは、LLM自体も、ChatGPTのような一般的なAIのLLMとはまったく違うものを、長年の研究結果に基づき、独自に開発しています。そのため、今お話したように、個人のデータや個別の企業データを識別して細かく把握し、理解しながら、それを非公開にし、プライバシーの保護の範囲を超えるものではないやり方で、運用できています。
そして何よりの特徴は、このLLMで「常識推論」を適用しているということです。一般的なLLMは時として、事実の裏付けもなく、論理的にも意味のないデータを生成します。専門用語で「ハルシネーション」(幻覚)と言い、もともと心理学の用語で、LLMが「ありもしないものを幻覚として見る」という意味です。この「常識推論」によって、私たちのLLMは、正確で、文脈を理解し、事実として正しいものを生成します。
スカイハイブのビジネスは、ひとりひとりの個人と相対してサービスを提供し、人々の生活に深く関わります。そのため、個人の権利と生活を尊重し、法に基づいた行動を取る必要があるのです。ですから、決して「野放し」にされたAIは使えません。
私たちは、自分たちの研究に基づいて、常識推論を持つ、独自のLLMを開発し、一般的なLLMよりも、信頼でき、プライバシーに配慮し、倫理的なAIのアルゴリズムを構築できている、唯一の会社であると自負しています。
ショーン 私たちのシステムは、ひとりひとりの個人をとてもよく理解します。スカイハイブのAIに、例えば「マシンオペレーターは世界に何種類ありますか?」と尋ねると、「876種類」と答えます。世界最大のKnowledge Graph(ナレッジ・グラフ/集めた情報を「知識」として表すための技術)に基づいて、世界の労働市場にいるマシンオペレーターの種類を「876」という細かさで識別し、提示するのです。
つまり、私たちのシステムが、ひとりひとりの個人の違い、仕事内容の非常に微妙なニュアンスの違いやスキルの違い、国や地域による違いなど、細かなバリエーションを認識しているということです。
こうした粒度で人々のスキルや仕事を捉えることで、自分のスキルの組み替えの可能性や、他の仕事への転用の可能性を簡単に見いだせます。また、これまで評価されてこなかったスキルが評価されたり、何を学べば希望する仕事に就けるかなどがわかります。これらは人々のリスキリングを促進し、労働市場の流動化や活性化に大きく寄与すると考えています。
――ただ、AI自体を社内で活用するのは怖いと思っている人もまだまだ多いようです。