AIチャットボット(自動会話プログラム)が時にハルシネーション(幻覚)を起こす――つまりプロンプトに対して誤解を招く答えや間違った答えを示したり、さらには作り話をしたりする――のを完全に止めることはできない。だがチャットボットが要求に応える際、利用者に示す誤った情報の量を減らすためにできることはある。AIのハルシネーションは二つのことに起因する。そう話すのはボストン・コンサルティング・グループ(BCG)傘下の「BCG X」のマット・クロップ最高技術責任者(CTO)だ。一つは、AIチャットボットが学習したデータの中に、質問されたテーマに関する矛盾した情報や正しくない情報、不完全な情報が含まれていたことだ。これに関しては打つ手がない。もう一つは「利用者が自分は何を求めているかを十分明確にしていない」ことだとクロップ氏は言う。これに関しては対処できる。