AIに人生を左右される人々
私は、このソノマ郡の裁判所の取り組みを正しいとか間違えていると言うつもりはありません。
というよりも、私はまだ結論を導き出せていないというのが本音です。
なぜなら、AIがどのように判断しているのかは、完全なブラックボックスになっていて、私たち人間にはわからないからです。
先に、「新たに被告となった人の犯罪歴、人種、仕事、家庭環境などを入力すると」と述べましたが、AIの判断が人種によるものであれば、これは人種差別の可能性が浮上します。
同様に、仕事に起因しているなら職業差別、家庭環境にいたっては本人にはどうすることもできない問題です。
そして、そうした判断を仮に人間の裁判官が行ったら、これは大問題です。
すなわち、人間の判断なら許されないけどAIの判断だから許されている、という状況がすでに発生してしまっているのです。
しかし、そこは合理主義のアメリカですので、再犯の割合が10%減少したという事実が優先されています。
ちょっと日本では考えにくい話だとは思いますが、こと会社となると、採用やリストラの判断をAIが行う時代が来てもなんら不思議ではないと私は考えます。
好むと好まざるとにかかわらず、これから私たちは、絶対に判断基準を教えてくれないAIとともに生きていかなければならないことだけは間違いのないところでしょう。
あとは、そうした状況を私たち人間がどれだけ受容できるのか。もしくは、受容してはいけないのか。
今後、私たちはこの課題に真摯に向き合い、建設的な議論を積み重ねていく必要があるのではないでしょうか。
このAIは、「ディープラーニング」と呼ばれる仕組みで自己学習をする「子どものAI」と、人が一から教えて丸暗記させる「大人のAI」に分かれます。
同じAIといえども、両者でどれほどの違いが出るのかは、第1回連載の中で「子どものAI」であるGoogle翻訳と、「大人のAI」である別の翻訳サービス(X翻訳)に同じ英文を日本語に翻訳させて、まったく異なる結果になるケースを紹介していますので、そちらを併せてお読みいただけたら幸いです。