AIの金融アドバイスが信頼できない理由Illustration: Alex Nabaum for WSJ

 お金に関する助言を得る目的で人工知能(AI)を使うべきだろうか。

 マサチューセッツ工科大学スローン経営大学院のアンドリュー・ロー教授(金融学)は、まだその段階ではないと言う。コパイロットやチャットGPTのような大規模言語モデル(LLM)はファイナンシャルアドバイザーとしての使用には適していない。なぜならLLMはソシオパス(社会病質者)――口が達者で説得力があり、共感能力に欠ける――のデジタル版だからだ。

 AIを搭載したアドバイザーが「金銭に関して良い助言と悪い助言の両方を同じように感じ良く、もっともらしい態度で伝えることができるとしたら、顧客は当然、問題視するだろう」。ロー氏と同氏が指導する大学院生の一人、ジリアン・ロス氏はハーバード・データ・サイエンス・レビューに掲載された2024年の論文でそう述べた(ベターメントやウェルスフロントが提供しているような今のロボアドバイザーはLLM時代の前に稼働し、LLMは基盤にほとんど使われていないため、ロー氏の評論はロボアドバイザーには当てはまらない)。

 それでも人々は既に、金銭に関する助言を得るためにAIツールを利用している。取引・投資プラットフォームのイートロの委託で昨年8月、13カ国の個人投資家1万1000人を対象に実施された調査では、ポートフォリオの管理にチャットGPTのような形式のAIツールを既に利用している人は19%に上り、2024年の13%から増加した。

 こうした現状をロー教授は懸念している。「人々が今、利用しているAIは危険なものになり得る。(LLMの)バイアスや不正確さなどの限界を利用者が十分に認識していない場合はなおさらだ」と電子メールで述べた。