構想・執筆に2年。『エフエムふくやま』でも、「ページをめくる手が止まらなかった」と紹介され、映像化したいというオファーが舞い込んできた話題のAI・仮想通貨のエンターテイメント小説『マルチナ、永遠のAI。』。
作者は、IT書籍の総売上が150万部を超え、小説でも『エブリ リトル シング』が17万部のベストセラーとなった大村あつし氏。今回は、AIの人権問題についてお届けしよう。
(構成・寺田庸二)
機械学習システムのアルゴリズムに
平等、差別禁止、偏見をなくす、という
基本原則を組み入れる
ちょっと驚きの話ですが、機械学習をしたAIは差別もすれば偏見も持ちます。
と、こんなことを言うと、AIに心があるかのように聞こえますが、決してそうではありません。
結論から述べると、機械学習の元となるビッグデータには、「人間の思考や性質」が内在しており、その結果、AIは差別や偏見まで学んでしまうのです。
すなわち、AIのこうした不適切な判断は、元をたどれば私たち人間に責任があるとも言えます。
アメリカのプリンストン大学では、GloVeというアルゴリズムを使って、AIに8400億の単語を学ばせました。
すると、そのAIは人間が表層的・潜在的に持つ偏見を再現することが立証されました。すなわち、AIは自分自身に偏見まで組み込んでしまったのです。
その中でも特に多い偏見は、人種と性別に関連するものです。
たとえば、「ヨーロッパ系アメリカ人は、アフリカ系アメリカ人よりも心地よい」とか、「女性の名前から連想されるのは家族だが、男性の名前からは仕事が連想される」という具合です。
ただし、元データは人間の思考だからと言って、それを学んだAIが差別をしてもいいことにはもちろんなりません。
そして、こうした問題の議論の土台にすべく、AIから人権を守ろうという「トロント宣言」が、人権団体が毎年行なっているRightsCon(ライツコン)の中で発表されました。