彼がポルノ動画を作成するのに使ったAIのプログラムは、オープンソースとして公開され、それを使って多くの人が動画を作成したことがディープフェイクの大きなムーブメントへとつながりました。

フェイク画像の作成は前述のとおり、ディープフェイクの登場以前より問題になっていました。1990年代にはPhotoShopなどの画像編集ソフトとインターネットの普及によって、有名人の顔に入れ替えたポルノ画像であるアイコラ(アイドルコラージュの略称)が出回るようになり、逮捕者も出ています。

また2021年には米国では、チアリーディングチームに所属する娘の母親がほかのメンバーを追い出すため、ディープフェイクを使ってそのメンバーのわいせつなフェイク画像や動画を作成したとして逮捕されたという事件もありました。

ディープフェイクはポルノのほかにも、フェイクニュースや詐欺、自白証拠の捏造など、さまざまな犯罪での利用が懸念されています。

実在しない人物の画像を簡単に生成できるツールを使って、SNSで偽のプロフィール画像を作り、架空の人物を装うような詐欺は多く行われているようです。

例えば、何者かがFacebook上でオリバー・テイラーという実在しない人物を作り出し、イギリスの法学者とその妻をテロリストとして誹謗中傷する活動を行っていたということが確認されています。

しかし動画となると、ポルノ以外ではほとんど使われておらず、2020年の米大統領選でもディープフェイクによる大きな影響は確認されておりません。

理由としては、前述のトム・クルーズの動画のように、本物と区別がつかないクオリティの動画を作るのは難しいためです。メディアで話題になっているような有名人のフェイク動画は、SNSで拡散する目的で専門家が時間と手間をかけて作っているのが現状です。

──どのような対策がとられていますか。またどのような対策が必要でしょうか。

ディープフェイクのムーブメントが拡大するとともに、ディープフェイクを検出する技術も多く研究されるようになり、国や大手企業、スタートアップなどがさまざまな取り組みや支援を行っています。

DARPA(米国国防高等研究計画局)では、ディープフェイク検出技術のプロジェクトに資金を提供するなどの支援を行い、2018年11月の時点ですでに6800万ドル(約74億円)の資金を投入しています。

Microsoftは昨年の大統領選前に、「Microsoft Video Authenticator」というディープフェイクの検出ツールを発表しました。