トロント宣言の効力は
まったく期待できない?
トロント宣言では、まず、次のような疑問を投げかけています。
「機械学習システムの世界において、人権侵害に対する責任は誰が負うのか?」
この問いに対する明確な回答は示されていませんが、常識的に考えれば、やはり機械学習でAIを開発している企業や団体が責任を負うことになるでしょう。
ただし、前述のとおり、AIが人権侵害をするきっかけを提供しているのは我々人間なわけですから、「あまりに過度にAIに責任や義務を負わせる」ことに関してはいささかの違和感を覚えます。かと言って、AIに好き放題させるわけにもいきません。
機械学習をしたAIが、「日本人と聞くと猿を連想します」と発言したら、当然、気持ちのいいものではありませんから。
このトロント宣言には法的な拘束力はありませんが、政府やIT企業がどう対応すべきかの指針にしようとの意図が見え隠れします。
また、RightsConが開催されたときに、カナダの遺産大臣が、「アルゴリズムの透明化」と「オンラインでの広範囲な情報交換」に言及するなど、実際に政府が指針に沿って動き出している国もあります。
ただし、「アルゴリズムの透明化」に関しては、一朝一夕に実現するかは個人的には大いに疑問です。
もはや、本連載の主役になりつつある、拙書『マルチナ、永遠のAI。』の天才AI開発者の田淵ですが、彼は次のような持論をぶちます。
「たいしたことのないノウハウを各企業ごとに囲い込んで外に出さないのも気に入らん。レール幅を統一せずに各企業で勝手に独自の電車を作っているような滑稽さだ。もっとどんどん研究データを出し合って、それこそAIにその研究データをなぞらせたり、再現させて、新たな仮説や技術を探し出させるべきだ」
田淵が批判するような「技術の囲い込み」の現状の中で、各企業や団体が、「自分たちの財産であり『飯の種』」とも言うべきアルゴリズムを、「人権を守るためなら」とオープンにするでしょうか。
いずれにしてもトロント宣言は、人類とAIが今後共存するために非常に重要な試金石であることは間違いありません。今後は期待を持ちつつ動向を注視していきたいと思います。
また、読者のみなさまはもちろん勘違いはなさらないでしょうが、トロント宣言は、「AIに人権を与える」という理念ではなく、「機械学習をしたAIに私たち人間が人権を侵されるのを防ぐ」のが目的です。
その一方で、同じく機械学習をしている女性型AIの「ソフィア」は、サウジアラビアで市民権を得て、すでに「子どもが欲しい。家族が欲しい」と発言しています。
では、そんなAIには人権は必要ないのでしょうか?