ChatGPTによって発生するリスク、何が起こる?

(1)    機密情報の漏洩

 これは、従業員がGPTに仕事の相談をするせいで、自社が進めているプロジェクトの内容や、課題、個人情報などの重要情報を無意識のうちに漏洩してしまう機会があるということを意味する。

 そこで、会社は使用上のポリシーを明確に示すなどして、対応しようとしているが、それでも一定の情報漏洩は実際に起こるだろう。

 これを防ぐために、入力した情報が二次利用されない社内専用GPT(AIアシスタントサービス)の利用などが進められており、適切な対応だと思う。とはいえ、それを言うなら、そもそも既存の検索エンジンに既にいろいろ打ち込んでいるわけだから、現段階でも同様の情報漏洩は起こっていると考えるべきである。

(2) 誤情報

 最もよく指摘される問題である。GPTは元データの不完全性などから、自信満々な様子で真っ赤なうそをつくことがある。したがってGPTが言ったことをそのまま事実・真実として受けることはそもそもNGである。

 しかしながら、これらの問題はやがて改善されるだろう。物知りの人に相談していろいろヒントをもらい(知識のある人に実際聞いたとしても、中には勘違いやうそも含まれる)、それをもとにいろいろ自分で考えるといった感じでお付き合いする分には、今でも十分の精度は確保できている。

(3) アウトプットの評価ができない

 既に大学などで大きな問題となっている。レポートを書く課題を与えた場合、学生は自分で考えずとも、ただGPTに質問するだけで、それなりのアプトプットが出てくるのである。それをそのまま提出して、単位が取れるのであれば十分だともいえる。

 このような行為を許容すれば、学生の公正な評価ができないという問題にぶつかる。これらに対して、AIが生成した文章を検知するソフトを使うなどして、論文などでの使用を制限するなどの対応が採られている。

(4) データとパワーの集中

 現在既に起こっている現象がさらに悪化するとの予測である。つまり、特定のプラットフォーム企業へのアクセスの集中が今よりさらに進むということだ。

 まだ現在は、用途によってパワーが多少分散されているが、これが用途を問わず、すべていくつかのGPTに収束していけば、その集中によって、個人のすべてが捕捉され、それに合わせて商品の販売などが行われることになろう。

 そうなると、GPTを支配する企業に、富の加速度的集中が起こり、あわせて巨大なパワーがもたらされ、自由経済システムの維持が難しくなるかもしれない。