平氏によると、比較的容易に利用できる技術として普及し始めたのは2017~2018年からで、アメリカの大手ネット掲示板「レディット」に投稿された、とある書き込みが発端だという。

「2017年10月ごろに『ディープフェイクス』と名乗る人物が、複数のハリウッド女優の顔をポルノ映像に貼り付けた改ざん動画を立て続けに投稿したのです。それをネットメディア『マザーボード』が取り上げたところ、世界的に知られるようになり、2018年には別の投稿者が『フェイクアップ』という、専門知識がなくてもある程度高性能のパソコンなら合成動画が簡単に作成できるアプリを公開。その後、アプリはアップデートを重ねながらネット上に拡散し、有名女優の顔を利用した偽のポルノ動画が大量に作られることになりました。ちなみに、ディープフェイクスという名称は、最初に掲示板に動画を投稿した人物のハンドルネームに由来しています」

音声のディープフェイクによる
詐欺犯罪も発生

 初期の段階では、“まばたき”がうまく反映されないなど、研究によっていくつかの“弱点”も明らかになった。しかし、技術の進化によって、まばたきも再現できるようになり、近年は肉眼では真偽を見分けることがほぼ不可能なほど、精密なフェイク動画も広く出回っている。

 AI技術によって作成されたフェイクポルノの被害者の大半は著名人だ。しかし、このまま技術革新が進めば、ネットに顔を公開している一般人も安全ではないだろう。

「今のところ、国内で一般の人たちが被害に遭ったという事例は報じられていませんが、動画だけでなく、写真1枚からでもディープフェイクスは作成できるため、ネットに顔を公開している限り、誰もが被害に遭うリスクはあります。すでに海外では一般の女性もターゲットになっており、ソーシャルメディアにアップした写真がポルノコンテンツに貼り付けられたという被害も報告されています」

 さらに、ディープフェイクを用いた犯罪事例は、偽のポルノ動画以外にもある。

「GANによる合成技術を使えば、本人そっくりの音声を作ることも可能で、ヨーロッパではすでに犯罪に利用されています。2019年には、イギリスのエネルギー会社のCEOが、親会社の経営者の声をAI技術で再現した“偽の音声指示”に従い、22万ユーロ(約2850万円)をだまし取られた事件をウォールストリート・ジャーナルなどが報じました。報道によれば、偽の音声は経営者本人のドイツ語なまりまで忠実に再現した、極めて精巧なものだったといいます。このような“音声のディープフェイクス”は、今後は国内でも“振り込め詐欺”の手段として悪用される可能性はあります」