ディープフェイクは見破れるのか?
偽音声の検出技術の行く末
ディープフェイクの氾濫は、有権者の情報判断能力を鈍らせ、健全な民主主義プロセスを阻害する可能性がある。
たとえば、情報の真偽の区別が困難になることで、有権者の間で情報不信が蔓延したり、真偽を見極めることへの疲弊から、政治への関心自体が低下したりする恐れが指摘されている。
ディープフェイクに対する技術的対策としては、C2PA(編集部注/アドビ、ARM、BBC、インテル、マイクロソフトなどの大手テクノロジー企業が中心となった非営利団体。デジタルコンテンツの出所と改変履歴を追跡するためのオープンな技術標準を開発することを目的とする)のほか、いくつかのスタートアップがディープフェイクの検出ソリューションを提供している。
たとえば、イタリアのミラノを拠点とするSensity AIは、ディープフェイク動画や音声の検出を得意としている。
ディープフェイク動画の検出では、顔の動きの不自然さや瞬きの頻度、微表情の欠如、顔の境界部分や肌のテクスチャの一貫していない箇所などを分析し、ディープフェイク特有のパターンを検出する。
また、カナダのトロントを拠点とするResemble AIは、音声生成技術を提供しており、その技術を生かして、偽音声の検出ソリューションも提供している。
同社は音声のピッチ、フォルマント(声道の共鳴周波数)、テンポなどの特徴量を抽出し、自然音声と比較したり、自然音声では存在しないような高周波成分や特定の周波数成分の不自然な強調を検出したりする「スペクトル分析」などによって偽音声の検出を実現している。
ただし、現時点ではディープフェイク生成技術が急速に進化しており、検出技術が追いついていないのが現状である。そのため、ディープフェイクの生成を防ぐだけでなく、コンテンツの信頼性を担保する技術が今後ますます重要となるだろう。