どのみちAI開発は止められない。米国の禁酒法時代の密造酒取り締まりよりも難しく、また無意味でもある。

 米国の実業家イーロン・マスク氏が生成型AIの開発の一時停止に賛成署名をしたものの、それから間を置かずに自分もAI開発の会社を立ち上げると発表したのが分かりやすい例だ。すなわち、政府による規制は、競争上の時間稼ぎなどに使われる手段であって、有効だと信じてルール作りに力を入れるような代物ではない。

 もちろん、データの不正利用などについてルールが必要なのは当然で、これはいわゆる「AI」に限った問題ではない。しかし、ことAIの開発そのものに関しては、日本政府は「国際的なコンセンサスが形成されることが望ましい」とでも言って何もしないのがいい。

 国が投資する価値のある分野だとは思うが、経済産業省と仲のいい、あの会社やこの会社が、ぞろぞろ出てきて「選りすぐりの二軍」みたいなオールジャパン・チームを作られるのは願い下げだ。民間の邪魔をしないことに徹してくれたら、今の日本政府としては上々だ。

ChatGPTの登場は
学生よりも先生が問題!

 ChatGPTは、例によって米国発だが、大学の試験やレポートをやらせてみたら成績が優秀であることで大いに騒がれた。日本の大学はどうするのかと思っていたら、数校が方針を発表した。

 レポートや論文への使用は「不正」として取り締まるという大学もあれば、使ってもいいが内容の真偽、出典、論旨などを自分で確認すべきだと発表した大学もある。「似たようなもの」と思う人がいるかもしれないが、大差だ。

 前者の大学が論文・レポートを課して学生を鍛えることに重きを置いているのだろうということは想像できる。一理はあろう。しかし、講義内容や課題の与え方において鍛える必要があるのは、むしろ教師の方ではないか。学生が社会に出ると、AIでも何でも使えるものは使う条件の下で問題解決に取り組まねばならないのだから、より現実的なのは後者の大学の方針の方だろう。

 それにしても、ChatGPTの真の問題は学生のレポートの評価なのだろうか。おそらく、半数以上の教員が薄々気付いていると推察するが、大学にあってChatGPTの真の問題は、学生ではなく、先生の方にある。生成型AIは、「人による教育」作業の多くを不要にする潜在力を持っている。