▼AIが不得意なこと5――文脈や常識の完全な理解

 AIは大量のデータを学習しているが、人間同士であれば暗黙のうちに共有している常識や、特定の文脈におけるニュアンスを完全に理解しているわけではない。ときおり、常識的に考えればあり得ないような回答や提案をしてくるのはそのせいである。

▼AIが不得意なこと6――最終的な意思決定と責任

 AIはあくまで判断材料を提供するツールであり、最終的な意思決定を行い、その結果に対する責任を負うのは人間だ。重要な経営判断や、個人のキャリアに関わる決定などをAIに丸投げするのは責任放棄に他ならない。

▼AIが不得意なこと7――機密情報・プライベート情報の取り扱い

 これもよく懸案として問題になるが、クラウドベースのAIサービスに企業の機密情報や個人情報を不用意に入力することは、情報漏洩のリスクを伴う。利用規約やセキュリティポリシーを十分に確認せず、安易に機密性の高い情報を扱うべきではない。ChatGPTをはじめとする生成AI各サービス自身も、このことについての注意を促している。

 こうしたAIの限界を理解しないまま安易にAIを頼りすぎると、たとえば部下の評価コメントをAIに丸投げして人間味のない紋切り型のフィードバックをするとか、顧客からの重要な問い合わせにAIが生成した回答をノーチェックで送ってしまい、あらぬ誤解を招くようなケースが考えられる。

AIは「頭がいい」わけではない

 先述した通り、機械学習やディープラーニングによってAIが何かを理解したり、思考したりしているわけではない。AIはあくまで学習した大量のデータに基づいて、統計的に最もたしからしいパターンや関係性を見つけ出し、応答(推論)しているだけである。

 たとえば、AIが猫の画像を認識できるのは、猫というものの概念を理解したからではなく、過去に学習した膨大な猫の画像データと共通するピクセルのパターンを、新しい画像の中に見出したからだ。

 文章を生成できるのも、単語と言葉のつながり方の膨大なパターンを学習し、文法的に自然で、与えられた文脈に最も合いそうな単語を確率的に予測してつなげているにすぎない。

 AIは驚くほど賢く見えるが、その本質は「データに基づくパターン認識と確率的予測」だ。このことは、AIの能力と限界を見極めるうえでの重要なポイントとなる。