このことは、人間にとって当たり前の「文脈の共有」が、AIにはいかに難しいかを象徴しています。目的、優先順位、状況の変化といった情報が共有されていないと、エージェントは正しく行動できません。組織内のコミュニケーション構造が曖昧であるほど、AIは簡単に混乱してしまうのです。この点は、日本企業の曖昧な伝達文化とも重なるところで、まさにAIが“属人性の壁”にぶつかる瞬間だといえます。

人間なら柔軟にできる
自然な判断ができない

2. 暗黙知の欠落:空気を読んで進める仕事が苦手

 エージェントが苦戦したもう1つの理由が、暗黙知の扱いです。文章の裏にある意図をくみ取ったり、相手の忙しさを推測したり、優先順位を状況に合わせて変えたりといった、人間なら自然にできる柔軟な判断ができません。CMUの実験でも、タスクを進める上で必要な“ちょっとした調整”ができないために、作業が途中で停止したり、本来必要のない行動を繰り返したりする場面が頻出しました。

 こうした失敗は、AIの限界というよりも、タスクやプロセスが人間の暗黙知に依存して設計されていることの副作用でもあります。属人性が高く、業務が言語化されていない前提で回っている環境では、エージェントは本領を発揮できません。言い換えると、業務が形式知化されているほど、AIは動きやすくなります。

3. 作業の自己増殖:目的が曖昧だとタスクが暴走する

 エージェントがつまずいた3つ目の壁は、「目的の維持」が難しいという点です。CMUの実験では、エージェントがタスクの途中で目的を見失い、本来必要のない作業を増やしてしまう「自己増殖」が何度も観察されました。これは、エージェントが“何をゴールとすべきか”を継続的に参照し続ける仕組みが弱いためです。