なぜAIを使うと頭を使わなくなるのか
AIに何か質問をすると、かなりの精度で答えを返してくれますね。とても便利です。
でもその結果、ぼくらは自分で考えることをやめてしまいます。そして、AIが出した答えをそのまま「正解」としてすんなり受け入れてしまいます。
学生が課題を自分で考えず、AIに作ってもらうケースがあるようです。職場でも、受け取ったメールの返信文や書類をAIに作ってもらうこともできます。
その方が圧倒的に楽ですし、効率も上がるでしょう。でも、これではぼくらは自分の目線をなくしてしまいます。仮にAIが間違ったことを出しても、それに気づけないのです。
これは一種の麻薬のようなものかもしれません。最初はよくても、やがてAIのせいで何も考えられなくなるかもしれません。
AIを使いこなす人になるために
では、どうすればAIを使いこなす側に回れるのでしょうか?
じつはここで言語化スキルが必要になるんです。
AIを使いすぎて考えなくなるのは、「AIが出してきた回答をそのまますべて受け入れてしまうから」だと思うんですよね。
AIに「どうすればいい?」と聞くと
AIから「こうすればいいです」
と答えが出てきます。
それをそのまま鵜呑みにするから、自分で考えなくなるわけです。
ただしそのAIの回答は100点満点ではありません。たとえば、自分(あなた)の専門領域を語らせると、まだまだ60点くらいだと感じませんか?
まだまだ自分の専門領域に関しては、自分の方が詳しいし、クオリティはそこまで高くないと感じていると思います。まだまだ「穴」があるんです。
その「穴」を見抜けずに、もしくは見抜こうとせずに受け入れるから、ぼくらは頭を使わなくなってしまうのです。
大事なのは、出された回答に対して「納得できない/よくわからないから、さらに説明して」などを考えて、そこからさらに問いかけを深堀することです。
答えをすんなり受け入れてしまうのは、言語化できていないから
AIが出した答えをもっともらしく感じてすんなり受け入れてしまうのは、「厳密に考えていないから」です。言い方を変えると、「なんとなく」で理解してしまい、明確に捉えていないからです。
ここで必要なのが言語化のスキルです。
言語化とは「明確化」です。
物事を明確に考えるスキルがあれば、AIが出してきた答えに対して、「もっともらしいけど、絶対にそう言える? そうじゃないこともあるのでは? そもそもどういう文脈で答えを出してきたのだろう?」と考えることができます。
ここで重要なのが「当てはまらないケースを探す」という言語化スキルです。
AIに限らず、誰かのプレゼンや主張を聞いたとき、すんなり説得されてしまうことがあります。
人として相手の言葉を信じるという意味ではいいことだと思いますが、ビジネスの場で相手が売り込んできたものをそのまま言葉通りに受け取ってしまうのはよくありません。
とはいえ、AIも商談相手も嘘をついているわけではありません。だから「エビデンスもあるし、嘘じゃなさそうだからいいか」と考えてしまうことがある。これがいけません。
エビデンスがあったとしても、「当てはまらないケース」はあります。
たとえば、日本の夏は暑いです。37度を超える地域もあります。でも、そうじゃない地域もあります。
「日本は夏になると37度を超える」という主張は、間違いではないですが「当てはまらないケース」もあります。標高が高いエリアなどは、日本ですが37度は超えませんね。
決して上げ足を取ることが目的ではなく、「必ずしもそうとは言えないのでは?」「当てはまらないケースはどういう場合だろう?」と考えることで、相手・AIが出してきた答えを鵜呑みにせずに済むのです。
この視点が大事です。



