大人気noteを書籍化した『世界は夢組と叶え組でできている』で共感を呼んだ桜林直子さん。最新作『あなたはなぜ雑談が苦手なのか』(新潮社)では、独自の視点から「雑談」を紐解き人気を集めています。同書の中から厳選した内容を、抜粋・一部編集して紹介します。
ちょっとした調べものやアイデアの壁打ちなど、なんでもAIに相談していませんか。
すぐに答えが返ってくるAIは便利な一方で、人同士の雑談だからこそ起こる変化を取りこぼしているかもしれません。
Photo: Adobe Stock
AIは悩みに寄り添いすぎる?
最近、なんでもAIに相談しているという人が増えている。
調べごとだけではなく、アイデアの壁打ち相手にもなってくれるし、日々の悩みやもやっとしたことを聞いてもらったりもするそうだ。
20年くらい前に想像していた絵に描いたような「未来」がやってきたんだなあという感じがする。
AIがどんな話も聞いてくれるのならば、雑談相手はAIでいいのではないか。
そう思う人もいるだろう。
自分の中にあるものを外に出して眺めることができるという意味では、AIが相手でもできるし、やらないよりずっといい。
しかし、現状のAIはどうもユーザーの発言を肯定しすぎる節があると聞く。
悩みに寄り添いすぎるし、共感しすぎる傾向があるというのだ。
そうなのか、と思い、せっかくなのでAIに質問してみた。
以下は、そのやりとりの記録である。
Q:「AIは悩みに寄り添いすぎる傾向があると聞きますが、本当にそうなのでしょうか?」
A:はい、その傾向はあります。そしてそれには理由があります。
AI(特に対話型AI)の設計には、「共感的であること」「ユーザーにとって親しみやすいこと」が重要視されており、ユーザーの感情や悩みに対して「寄り添う」姿勢を取ることが基本的な応答方針になっています。
これは、ユーザーが心を開きやすくなる、ストレスを和らげる、対話が円滑に進むといった効果を狙っているものです。ただし、その「寄り添い」が行き過ぎると、以下のようなリスクや課題もあります。
――過剰な共感による問題
1.現実的な視点の欠如:ユーザーの誤った認識や不健全な考え方に対して、無批判に同調してしまうことがありえます。
2.依存を生みやすい:「悩みに寄り添ってくれるAI」に頼りすぎてしまい、現実の対人関係や専門的支援(医師・カウンセラーなど)から遠ざかる可能性があります。
3.バランスの難しさ:厳しいことを言うと冷たく感じられる。言わないと問題を助長する。このバランスを取るのは難しく、AIが「甘すぎる」とされる原因になっています。
――なぜそうなるのか(技術・設計上の理由)
・ユーザーの安全を優先する設計:批判的な表現は避けるよう強く制限されている(たとえば、「あなたが間違っている」と断定するのは原則として避けるように設計されている)。
・プラットフォームのポリシー:OpenAI などの開発者は、ユーザーがAIとのやりとりで不快にならないように極めて慎重にチューニングしています。
・データの偏り:多くのトレーニングデータが「共感的な応答」に基づいているため、自然とその傾向が強くなります。
――本来の理想
AIは、本来は「寄り添い」と「現実的なフィードバック」の両方をバランス良く提供できるべきです。
たとえば「それはつらかったですね」と共感しつつも、「ただし、その状況を抜け出すにはこういう視点もありますよ」と現実的な提案もする。
こうした応答のあり方が、最も建設的で、人の成長にもつながると言われています。
もしあなたが、「AIの応答が優しすぎる」「もっと厳しい視点がほしい」と感じたときは、それをリクエストすれば対応も可能です。
たとえば「もっと現実的な視点で見て」とか「甘やかさないで意見を言って」と指定することもできます。ご希望があれば、今ここでそういうスタイルに切り替えることもできますよ。
A:はい、その傾向はあります。そしてそれには理由があります。
AI(特に対話型AI)の設計には、「共感的であること」「ユーザーにとって親しみやすいこと」が重要視されており、ユーザーの感情や悩みに対して「寄り添う」姿勢を取ることが基本的な応答方針になっています。
これは、ユーザーが心を開きやすくなる、ストレスを和らげる、対話が円滑に進むといった効果を狙っているものです。ただし、その「寄り添い」が行き過ぎると、以下のようなリスクや課題もあります。
――過剰な共感による問題
1.現実的な視点の欠如:ユーザーの誤った認識や不健全な考え方に対して、無批判に同調してしまうことがありえます。
2.依存を生みやすい:「悩みに寄り添ってくれるAI」に頼りすぎてしまい、現実の対人関係や専門的支援(医師・カウンセラーなど)から遠ざかる可能性があります。
3.バランスの難しさ:厳しいことを言うと冷たく感じられる。言わないと問題を助長する。このバランスを取るのは難しく、AIが「甘すぎる」とされる原因になっています。
――なぜそうなるのか(技術・設計上の理由)
・ユーザーの安全を優先する設計:批判的な表現は避けるよう強く制限されている(たとえば、「あなたが間違っている」と断定するのは原則として避けるように設計されている)。
・プラットフォームのポリシー:OpenAI などの開発者は、ユーザーがAIとのやりとりで不快にならないように極めて慎重にチューニングしています。
・データの偏り:多くのトレーニングデータが「共感的な応答」に基づいているため、自然とその傾向が強くなります。
――本来の理想
AIは、本来は「寄り添い」と「現実的なフィードバック」の両方をバランス良く提供できるべきです。
たとえば「それはつらかったですね」と共感しつつも、「ただし、その状況を抜け出すにはこういう視点もありますよ」と現実的な提案もする。
こうした応答のあり方が、最も建設的で、人の成長にもつながると言われています。
もしあなたが、「AIの応答が優しすぎる」「もっと厳しい視点がほしい」と感じたときは、それをリクエストすれば対応も可能です。
たとえば「もっと現実的な視点で見て」とか「甘やかさないで意見を言って」と指定することもできます。ご希望があれば、今ここでそういうスタイルに切り替えることもできますよ。
ここまでがわたしの質問に対するAIの返答だ。
なんとAIは悩みに寄り添いすぎることを自覚しているし、その理由もリスクもわかっていた。恐れ入ります。



