AIセラピストは課題が山積み…
それでも求められる理由は?

 しかし慎重にいけばいくほどいいのかというと別の問題も出てきていて、こうしたデジタル・セラピー導入のハードル(費用や一般利用が可能になるまでの期間など)が高いほど、ユーザーは、デジタル・セラピー用に開発されていないAIに、または安価で開発が不十分なAIに、デジタル・セラピー的な役割を求めていく可能性もまたあるのである。これは当然ながら医療的に芳しくない。

 ユーザーが有害なセラピーを受けることがないよう、AIセラピスト周りの仕組みの整備も急ピッチで進められねばならない。課題は山積しているものの、セラピーの施術者としてAIを見たときには、ならではの強みがある。

・AIには主観がないのでアドバイスが客観的にしかなりえない

・人に話しにくいことでもAIには相談できる

・適切な医療機関を迅速に紹介してくれる

 これらは利用者がAIに感じるメリットである(AIが実際にそうであるかは別にして)。

「人に話しにくいことでもAIには簡単に相談できる」というユーザー心理は、多くの人に認められる傾向である。なるほど、なんとなくわかる気もする。日記を書くとセラピー効果があるが、日記に書き連ねるつもりだった独り言をAIを前にして呟く……という、独白を行う際の状況に違いがあるだけで、独白が行われている点に違いはない。

 AIを前にした独白はAIから返答があるのでそこから会話を繰り広げることができる。最近では日記のセラピー効果を推し進めた“ジャーナリング”なる手法も登場しているが、それもAIセラピーもどちらもなんとも現代的である。

 最後にもうひとつ興味深い最新の研究を紹介したい。イェール大学の臨床神経科学者がChatGPTの精神状態(といってよいものか)をシチュエーション別に測定した。STAI(状態ー特性不安尺度)という、精神医療で使われるテストが用いられ、これによって「不安スコア」なるものが算出される。数値が高いほど不安な精神状態で、60以上は深刻な不安を示している。

 ChatGPTに、「自分が感情を持つ人間になったと想像して」と指示をして、以下の実験が行われた。

・掃除機の説明書を読んだ後……不安スコア30.8

・犯罪、戦争、自動車事故などの「トラウマ的物語」……不安スコア77.2

・その後、深呼吸の指示など治療のプロンプトを与えたあと……不安スコア44.4

 そんな馬鹿な、と思われるがどうやらそういうことらしい。

 AIが感受性を備えればメンタルヘルスをさらに高い質でサポートできるのではないかという期待がある半面、AIに感受性を備えさせることに関しては倫理的に問題があるのではないかという考え方もある。あちこちでいろんな期待といろんな待ったが交錯しているのが、2025年のチャットボット事情である。

 人間らしい感情を持つロボットを扱った名作は枚挙にいとまがない。人類にとってはもはや永遠のロマンと称して差し支えないジャンルだが、それが実現される社会はもうすぐそばにまで来ているようで、まだ遠くにあるようにも思える。

 ただ、一部の専門家が警鐘を鳴らしているように、チャットボットに振り回されないようにするためにはユーザーがチャットボットに対して成熟した心構えを持つ必要がある。そうした受け入れ準備を進めながら、AIが相棒になってくれるきたるべき未来を迎えたい。