「電話の相手、本当に本人?」“AI音声詐欺”増加の恐れ、元公安捜査官が解説AIを悪用し、知人などになりすまして振り込め詐欺などを行う「音声詐欺」が世界的に増えつつある。今後、日本でも被害が拡大する恐れがあり、注意が必要だ(写真はイメージです、AI生成画像) Photo:PIXTA

AI悪用の詐欺事件が
日本で広がる恐れ

 中国でAIを使った振り込め詐欺事件が発生した。犯人はAIを使って被害者の友人の顔と声を複製してなりすまし、およそ8500万円をだまし取ったという。

 その手口はこうだ。

 福建省福州市のテック企業経営者の被害者は微信(WeChat)で連絡してきた友人とビデオ通話を行った際、「知人が入札の保証金として約8500万円を必要としている。会社の法人口座を利用して口座振替をさせてほしい」と伝え、被害者がキャッシュカードの番号を伝え、だまし取られたという。

 だが、ビデオ通話で話していた相手は、犯罪者がAIを使って友人の顔と声を複製した偽者であったのだ。

 中国では他にも同様の事件が報道されている。親元を離れて大学に通う娘から両親宛てに微信ビデオ通話があり、「生活費が足りない」とのことで、両親はその場で微信を通じて約4万円を送金したという。

 さらに、アメリカでは類似の手口で、被害者の娘の音声を生成し、親に身代金を要求した事件も発生している。

 実はこういったAIによる犯罪リスクは世界で高まっている。

 サイバーセキュリティ企業MaAfeeによれば、7カ国(米、英、独、仏、印、日、豪)の18歳以上の成人7054人を対象に調査を行ったところ、自身がAI音声詐欺に遭遇したと回答した人が10%、知人が遭遇したと回答した人は15%に達している。また、被害者の77%が実際に金銭被害に遭ったと回答しているという。