プライバシー侵害で
大炎上した「リクナビ問題」

 顔認識AIが危険視されているのは、差別の観点からだけではない。個人を特定して行動を追跡・監視できる点で、プライバシーの侵害につながることも、かねて懸念されている。

 そもそもAI活用のためには、多くのケースで細かな個人データを大量に収集・分析する必要があり、プライバシーの侵害に容易につながりやすい構造がある。「AIとプライバシー」は、現代の人権を語る上で最重要トピックの一つだ。

 そしてプライバシーに関して、近年、国内で最も話題を呼んだのは19年の「リクナビ問題」だろう。

 リクルートキャリアが運営する就職情報サイト「リクナビ」が、AIを用いて就活生の「内定辞退率」を予測・算出し、企業向けに販売していたことが問題視された。学生の就職活動の成否を左右しかねないセンシティブなデータを勝手に販売していたことに対して、「学生は商売道具じゃない」と、SNSなどで激しく非難された。

 政府の個人情報保護委員会は、学生の個人データを本人の十分な同意を得ることなく勝手に外部に提供していたとして、同社に是正勧告を出すとともに、データを購入していた企業各社に対しても指導を行った。厚生労働省も、同社の行為を職業安定法違反とみなして行政指導に踏み切った。

 リクルートキャリアの社長は、謝罪会見において「研究開発的な位置付けのサービスとして、通常とは異なるプロセスで開発した」「複眼的なチェック体制が機能していなかった」と述べている。

 AIサービスで人を扱うときには、ユーザーに十分な事前説明と情報公開がなければ、リクナビのような“大炎上”も免れない。革新的なAIサービスに取り組む野心あふれる企業ほど、その倫理観が問われる。