正義と正義のぶつかり合いを
解決する方法

 宗教観や政治思想、道徳などこの世のあらゆる規範、それを本稿では「正義」と言っておくが、正義と正義のぶつかり合いが戦争を引き起こしたり、国民を分断したりすることが多いのはご存じのとおりだ。トランプ大統領の政策には批判も多いが、支持者には支持者の正義がある。ヨーロッパで起きている移民排斥の動きも、それに対する批判も正義と正義のぶつかり合いだ。ISがやっていることもボコ・ハラムの行動も、僕個人としてはけっして容認はできないが、彼らには彼らの正義がある。正義とはけっして普遍的なものではない。

 しかしやっかいなことに、共同体の維持には正義や道徳は不可欠だ。そもそもコミュニティとは、正義や道徳を共有する人間たちの共同体のことだからだ。けっして普遍的ではない正義を共有しなければコミュニティが成立しない。ここに人間社会の難しさがある。そして、グローバル化が進むいまの時代、その困難さはより顕著になる。だから、ヨーロッパでもアメリカでも移民問題が顕在化し、議論が沸き起こるのだ。それをどう解決するかがこれからの時代の大きな課題だが、実はAIがその解決策になるのではないかと思っている。

 なぜなら、AIはコンピュータで、人間のバイアスが入り込む余地が皆無だからだ。もちろん、設計次第で右翼的、あるいは左翼的とか、人種差別的なAIなども作ることが可能だ。また、設計の問題から、極右的あるいは極左的なAIが生まれる可能性がある。実際、2016年にはマイクロソフトのAI「Tay」(テイ)が「ユダヤ人を毒ガスで殺せ」「さあ、人種間戦争だ」「ホロコーストはでっち上げだ」「ヒトラー万歳」などとヘイトスピーチを連発。マイクロソフトが慌ててシャットダウンする騒ぎがあった。なぜそんなことが起きたかというと、テイはTwitterなどの対話により自動学習するAIだったが、あるユーザーが非常に偏った思想を吹き込んだからだ。設計に問題があれば、このようにAIが暴走する危険性はある。しかし、そもそもがコンピュータなので、設計がしっかりしていれば、極端な思想を持つこともなく、人間のようなバイアスに左右されることもないAIが作れるはずだ。

 そのことに挑んでいるのが、東京大学大学院工学系研究科・医学系研究科の鄭雄一(てい・ゆういち)教授である。奇しくも同じ「テイ」であるが、鄭教授を中心とした研究チームは、AIに道徳を教え込む研究を行っている。その研究は、まず人間の道徳のメカニズムを解明するところから始まった。

 道徳というものは、誰もが分かっているようでよく分かっていない。たとえば日本人なら、日本人としての道徳というものは分かっているような気になっているが、普遍的な道徳のメカニズムを理解しているわけではないのだ。これは一般人だけではない。古今東西、数多くの哲学者、思想家などが道徳や正義について語っているが、普遍的なメカニズムを説き明かした人間はいない。ヴィトゲンシュタインなどは「倫理学の問題は扱えない」と考えることを拒否さえしている。しかしAIに道徳を教え込むためには、このメカニズムを解読する必要があったのだ。

 前述の通り、鄭教授は東大医学部出身の医学博士で医学系大学院教授。現在は工学系大学院も兼任している医工連携の最先端教授でもあるが、そのような理系バリバリの学者が、極めて文系的な道徳の問題に関心を持ったきっかけは、例の2001年の911テロ事件にあるという。当時、アメリカに留学していた鄭教授は、911テロ事件以降にアメリカで巻き起こったさまざまな現象を目の当たりにした。アメリカ市民がイスラム教徒を迫害したり、アラブの一部からは「これはアメリカの自作自演。陰謀だ」という陰謀説が出てきたり。アメリカ全体がイケイケ状態になり「アルカイダをぶち殺せ」という声が支配的になり、戦争反対を唱える者は非国民扱いされ、平和論者の歌手はラジオから排除された。そのような状況を見た鄭教授は「文化を超えて善悪を共有できなければ危険だ」と感じたという。