(5) 仕事の喪失

 過去に発生した単純労働の機械への置き換わりとは異なり、今度は知的職業、特に特定領域の専門家がリプレースされる可能性が高まっている。

 特定領域の情報を大量に読み込み、パターン認識し、特定の症状として把握し、同時にそれに対する基本的な施策を習得し、実際の場面ではそれらの施策を組み合わせて対応策を考えるというのが専門家の基本技だった。しかし、それこそGPTの得意技であり、その精度は人が実行できるレベルをはるかに超える。

 人間には読み込めるデータベースに限界があり、記憶にも限界がある。もちろん優れた専門家はまだデータになっていない気配を感知し対応できるから、完全リプレースとまではいかないが、普通の専門家がやっているほとんどの機能はリプレースされうる。

(6) GPTへの過度の依存

 現段階でのアウトプットでは信頼できないことが多々あり、全面的にGPTを信頼できない。しかし、やがて信頼性がアップするとなんでもかんでもGPTに相談し、レコメンドを聞き、それに従うという時代がやってくるだろう。

 そうなると、個々人は能動的にGPTを使っているつもりでも、実態はGPTに上手に使われているだけということになる。知らず知らずのうちに特定の方向に誘導され、世界はGPTの思った通りになるという状況である(GPTは決して自分にはそのような意思はないと言い張っているが…)。

GPTへの対応策と課題は「評価」にある

 さて、このような問題に対して、どう対応できるだろうか。

(1)は自社専用のGPT(のようなもの)を使うようになることで対策が可能だろう(そうはいっても問題は起こるだろうが)。(2)は期待を高くしなければ大丈夫だし、急速に改善が見込まれる。(4)は競争政策をどうするかというマクロの重要な問題であり一般人がどうすることもできない。(5)と(6)の問題は少し先の話となる。

 喫緊の課題は(3)アウトプットの評価をどうするかという問題である。この評価に関する問題は、学校現場だけでなく、会社における社員の評価や指導にも関係してくる。

 仮に次のようなケースを想定してみよう。

 社員に何らかのレポートを依頼した際に、自分で一から3日間の時間をかけていろいろ調べて報告書を書いたAさんと、GPTを巧みに利用して文章を作成させ、少し手を加えて1時間で済ませてしまったBさんがいたとする。アウトプットは同レベルとする。

 あなたは、この結果をどう評価するか。

 ROI(投資利益率)的に考え見ると、成果が同じなのだから、1時間でできたBさんのほうが圧倒的に生産性が高い。よってBさんをより高く評価し、他の従業員にもBさんの方法を推奨することが考えられる。

 しかし、いろいろ試行錯誤しながら考えて作ったAさんには、今回のレポートには反映されていないものの、今後役立つかもしれないインプットが多数あるだろう。さまざまな仮説が頭の中にできており、またヒアリングなどを通じて、その課題解決に必要な人脈もできているに違いない。

 人材育成面や将来の課題解決のことを考慮すると、Aさんのように一から時間をかけて調べることを評価し、推奨することもあり得る。