国別で見るとグラフの通りである。
拡大画像表示
日本のオンライン音声詐欺の遭遇率は、世界7カ国で最も低く、自身が遭遇は3%、知人が遭遇は5%にとどまっているという。
この数値に安心してはいけない。現在はまだ遭遇率が低いだけであり、こうした犯罪手法は、間違いなく今後、日本で流行するだろう。
そして、AIが複製した画像や音声は、これまで公になった著名人のディープフェイク動画の事例からも明らかなように、本人と見分けが付きにくいほど精巧になっていることは言うまでもない。今後は、メディア・フォレンジックといったデジタル・フォレンジック技術(※)を活用した手法を使わなければ全く見分けがつかないほどに、その技術は発展していくと見込まれる。
※電磁的記録の証拠保全および調査・分析を行うとともに、電磁的記録の改ざん・毀損などについての分析・情報収集等を行う一連の科学的調査手法・技術
AIによる詐欺被害が
若年層にも広がる可能性
もしも自分が他人の顔や音声を複製できるとしたらどのように悪用できるだろうか。犯罪者の立場で想像してみてほしい。ここでは、詳しく書くことは控えるが、その手口は無数に思いつくだろう。予想される手口を知るだけで、一つ心構え・防犯ができる。
例えば、前述のビデオ通話に加え、ビデオ会議、オンラインインタビューでも他人に成りすまして悪用できてしまう。また、芸能人を装った投資詐欺なども予想される。
その他、音声だけを利用した留守番電話でのメッセージなども危険だ。
また、特殊詐欺では、息子に成りすまして「俺だよ」などという手口が過去に流行したが、被害者は電話口を通すと「声が似ていた」と言う場合が多い。また、中には「絶対に自分の子だった」と信じ切ってしまう人もいる。
そのような状況で、音声で成りすまされてしまった場合どうだろうか。
そして、最近の強盗の手口にも共通するが、いわゆる闇名簿で、ターゲットの情報を事前に収集し、家族の名前も把握していた場合、音声クローンを利用して本人に成りすまし、事前に収集した情報を基に、「母さん、XXだよ」などと名乗れば、信じてしまうだろう。
そして、スマホの使用にそれほど抵抗の無い70代の高齢者であれば、促されるままビデオ通話に移行し、そこで本人とうり二つの人間を見れば、信じ切ってしまう。