正体不明の「ナニカ」を
子どもに使わせていいのか
そして、次に論じる懸念点は、賛否が分かれるかもしれませんが、「なんで上手く動いているかわからないナニカ」に子どもの発達を任せることは、果たして安全・安心か、ということです。例えば、住む家について考えてみましょう。建物は、どのような強度を持った構造であれば、どのような揺れに対応できるかを計算した上で、設計されています。
『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』(川原繁人 朝日選書、朝日新聞出版)
そのためには、建物の構造とその耐震性を理解することが肝要です。「どんな仕組みで建っているかよくわかってないけど、何となく倒れないし、地震が来てもきっと大丈夫だと思う。仕組みはわからないけど」という家に住む勇気を持つ人はどれだけいるでしょうか。
その仕組みがわかっていないものは、何か問題が起こった時に、どこに原因があるかを追求し、それを解決するのが難しいという欠点があります。また、不意に予期していないような問題が起こる可能性も排除できません。
おしゃべりアプリに関連する具体例をあげれば、子どもが「怖い話」をリクエストしたとしましょう。現状の生成AIでは、学習データの中に含まれていた不適切なコンテンツが、どのような条件で出力されるかが予測できないため、おしゃべりアプリが子どもには不適切なレベルの残酷な話をしてしまう可能性があります。
しかし、ブラックボックスであるため、「なぜ」そのような不適切な話をしたのか原因がわからず、根本的な対策を立てることが困難なのです。







