人間より優れるAI判断、なぜ信頼されない?Photo:Bloomberg/gettyimages

 今夏にテキサス州の幹線道路で5万ポンド(約23トン)のトレーラーが誰も運転席にいない状態で飛ばしているのを見かけたとしたら、思い出してほしい。自動運転トラックは、人間が運転するトラックよりも誰かを死なせる可能性が低いということを。

 少なくともそれは、自動運転ソフトウエア開発企業オーロラ・イノベーションのクリス・アームソン最高経営責任者(CEO)が主張していることだ。

 同様の論理は、ある全く異なる分野にも当てはまる。それは法的仲裁の分野だ。ミシガン州最高裁の元長官で、現在は米国仲裁協会(AAA)のトップを務めるブリジット・メアリー・マコーマック氏は、同協会の新たな「人工知能(AI)アービトレーター(仲裁人)」が一部の紛争を大半の人間よりもうまく解決するだろうと考えている。

 保険各社は、アルゴリズムがAIと呼ばれる前からずっと、それを用いた意思決定を行ってきた。その過程で各社は不公平な判断を巡って訴えられており、ビジネスの手法をアップデートしなければならなかった。規制当局は早い段階で、保険各社のAIベースのシステムが人間と同じ基準に縛られるとの立場を明確にした。このため、多くの保険会社は自社のアルゴリズムを「説明可能」なものにすることを余儀なくされた。各社は自社の作業をAIのブラックボックスの中に隠すのではなく、見せている。