今後、こうした犯罪に巻き込まれる層は高齢者だけではなくなるだろう。スマホやPCなどによるビデオ通話やオンライン会議に慣れ親しんだ世代でも、容易にだまされてしまう時代が到来する。犯罪集団はまずは高齢者層(60代以上)をターゲットにするだろうが、その後、犯罪集団はノウハウを得て防犯意識の低い若年層、次いで中年層にその触手を伸ばしていくと推察される。

 AIを使った犯罪はこうした身近なものだけではない。

 先日、「米国国防総省(ペンタゴン)の近くで起きた爆発」を写したとされるフェイク画像がSNSで拡散され、一時市場が混乱した。このように、金融市場の操作も容易であろう。

 さらに言えば、犯罪者の管理のもと、ここまで解説した手口をAIが自律して行う可能性もある。

 ちなみに、既にダークウェブなどでは、ChatGPTのクローンが流通しており、犯罪組織間でAI技術・ノウハウの取引が始まっている上、犯罪組織がAI技術自体に目をつけ、その手口に組み込むことを開始している。

 また、中国テック・スタートアップ専門メディアの36KrJapanによれば、中国では、有名人に成りすますためにフェイク動画に使う“顔の素材”の販売が行われており、顔のモデル一式を3万5000元(約70万円)で購入でき、素材を自由に入れ替えることやリアルタイムで表情などを変化させることも可能で、ほとんどの主要ライブ配信プラットフォームに対応しているという。

 もはや、国家間の情報戦の範疇(はんちゅう)を超え、今我々の目の前にその脅威が迫っている。

AIを悪用した犯罪への
効果的な対策とは

 では、ビデオ通話を悪用した事件にどのように対策すべきか。

 対策を以下に例示する。

1. 合言葉を決めておく
2. 金銭の受け渡しは、本人に手渡しで
3. 知らない番号の着信には出ない
4. 近親者を装っている可能性を考慮し、一度通話を切って、自身が知る連絡先にかけ直す
5. SNSで自身の個人情報を容易に出さない
6. アンケートなどに容易に答えない、自身の家族構成などを答えない