リアルタイム変換と「誰でも使える詐欺ツール」の脅威

 技術の進歩は、悪意ある者をさらに有利にしている。特筆すべきは「リアルタイム性」の獲得だ。2023年頃までは「テキストを入力して音声を生成する」方式が主流で、会話に不自然なタイムラグが生じがちだった。しかし現在は「リアルタイム・ボイスチェンジャー」の精度が飛躍的に向上している。

 犯人がマイクに向かって喋ると、AIが瞬時に「ターゲットの家族の声」へ変換して送出する。犯人の焦りや泣き声もそのままクローン音声に反映されるため、聞き手は「パニックで声が上ずっている」と解釈し、違和感を覚えることなく信じ込んでしまう。

 しかもこれらのツールは、比較的容易に入手できる。AIプログラミングの知識は一切不要で、月額数千円程度で使える「誰でも使える詐欺ツール」がTelegramやダークウェブ上で流通している。「サービス化」によって、このような犯罪が誰にでも実行可能になってしまっているのだ。

結局、最強の対策は「家族の合言葉」

 では、こうした「フェイク音声」によるオレオレ詐欺に、どう対抗すればよいのか。

 まず、不用意に自分の音声データを取られないことが一つの手だ。無言電話がかかってきたら、余計なことは話さず(「もしもし?」すら言わないことが望ましい)、できるだけ無言のまま切る。ただし、すでにSNSなどに音声付き動画を投稿している場合、そのデータを使われる可能性は排除できない。

 それ以外の対策は、従来のオレオレ詐欺対策と変わらない。「すぐ切る」「相手の言う通りにしない」「自分から折り返す」「家族にしか分からない合言葉をあらかじめ決めておく」――この4点に尽きる。

 かつて、電話の向こうから聞こえる「声」は本人であることを証明する最強の生体認証だった。しかし2026年の今、それは単なる「デジタルデータ」となり、場合によっては人をだます材料に成り下がった。我々が今、最も信頼すべきは最新のAI検知ソフトではなく、昭和の時代から変わらない「家族にしかわからない、不格好な合言葉」なのかもしれない。