IBM、マイクロソフトも
顔認識AIを危険視

 18年、米マサチューセッツ工科大学(MIT)が米IBMや米マイクロソフトなどの顔認識ソフトウエアの精度を調査した。その結果、「明るい肌の男性」よりも、「暗い肌の女性」の方がはるかに誤認識されやすいことが発覚し、物議を醸した。

 米国の警察は顔認識AIを捜査に活用してきたが、黒人女性のようなマイノリティーほど誤認逮捕などによって、不当な扱いを受けるリスクが高まることになる。

 これまでも米国の公民権団体や活動家は、顔認識AIの危険性を訴えてきた。そして20年に入って白人警察官による黒人死亡事件に端を発した「Black Lives Matter(黒人の命は大切)運動」が加速すると、顔認識AIの差別的側面にも改めて注目が集まった。

 米国内外での批判の高まりを受け、20年6月にはIBMが顔認識AI事業からの撤退を表明。同社のアービンド・クリシュナCEO(最高経営責任者)は、「IBMは他社の顔認識技術も含めたあらゆるテクノロジーが、大衆監視や人種によるプロファイリング、基本的人権や自由の侵害に使われることに強く反対し、容認しない」との声明を発表した。

 これに追随するかのように、アマゾンも警察への顔認識AIの提供を1年間停止することを発表。マイクロソフトも「法整備が完了するまで、自社AIを警察には提供しない」と宣言した。AI市場をけん引してきた大手各社も、「差別するAI」への解決策は、いまだに見いだせていないのが現状だ。

 多くの企業はAI活用に際して、人間では導き出せない合理的で効率的な「解」の導出を期待する。

 しかし、AIが導き出す「現状における合理的な解」は、往々にして現状の格差やバイアスを丸のみにした差別的なものになりがちだ。倫理なき合理化は、残念ながら差別と極めて相性が良い。これからAIに取り組もうとする企業は、自社の用いるデータやアルゴリズムの公正性に、いくら注意を払っても払いすぎることはないだろう。