テクノロジー企業に必要な
「AI倫理」担当部署の新設

 AIサービスの開発最前線のエンジニアに、人権の配慮を学んでもらうことも必要だ。だがテクノロジー競争の最前線でしのぎを削るイノベーターたちに、万全の社会的配慮の責任を押し付けるのは酷な話だろう。

 そこで先進企業は相次いで、社内に「AI倫理」を担う部署を設置し始めた。ESG投資の「S(社会)」「G(ガバナンス)」双方の視点で極めて重要な取り組みだ。

 米セールスフォース・ドットコムは19年から、「最高倫理・人道責任者(Chief Ethical and Humane Use Officer)」のポストを設けている。同社の技術やサービスが倫理的に許されるか、検討・確認する役割を担う。

 富士通も社外専門家で構成された「AI倫理外部委員会」を19年に設置した。富士通は、AIによる保育園と待機児童のマッチングシステムを自治体向けに開発・提供しているが、倫理委員会ではその公正性が検証対象となった。「保護者からの提供データに誤りがあっても対応できるように」と倫理委員会から助言を受け、システムに改良を加えたとされる。

 これからさらに加速するAIサービス競争。その勝敗を決めるのは旧来のモノづくりのようなQ(品質)、C(コスト)、D(納期)といった単純な基準ではない。たとえ少しくらい知能が劣ったとしても、人権リスクの低いAIの方が社会に実装される可能性が高い。

「性能」一辺倒のAI開発を進めるテクノロジー企業は、早晩、淘汰されてしまうかもしれない。

 手塚治虫が自作で未来世界を描くときに何度も警鐘を鳴らしていたこのテーマ。いよいよ企業が自分事として考えるときがきた。