このような技術の活用は、選挙活動に制約がある状況下で政治家が有権者に訴える手段として評価する声がある一方で、収監中の政治家の発言をAIで再現することの倫理的問題や、選挙の公平性への影響も指摘されている。
同時にカーン元首相に似せた偽の演説がディープフェイクで作成され、選挙をボイコットするよう呼びかけるという事例も発生しており、技術の悪用に対する懸念も高まっている。
本人が話してない偽情報が拡散
スキャンダル捏造や発言改ざんも
2024年4月から5月にかけて総選挙が行われたインドでは、与党インド人民党(BJP)がモディ首相のヒンディー語の演説をAIを使ってタミル語やテルグ語など8つの地方言語に翻訳し、それぞれの言語で音声合成した演説をネット配信した。BJPはヒンディー語話者の多い北部や中部地方を主な地盤としており、弱点である南部地方の言葉で訴えることで支持基盤を広げる狙いがあったとされる。
これに対し、野党側は、この手法が地域の文化や言語の多様性を無視していると批判。また、AIによる翻訳の正確性や合成音声がモディ首相本人の声と誤認される可能性についても懸念を表明している。
ディープフェイクは、特定の候補者になりすまし、特定の候補への投票を促す偽の呼びかけを行ったり、スキャンダルの捏造や政策スタンスの改ざんによって、その政治家のイメージを操作したりするなどして、選挙プロセスに直接的、かつ深刻な影響を与える可能性がある。
特に選挙直前にこうした偽情報が拡散された場合、検証や反論の時間が不足し、選挙結果を左右する可能性がある。
マイクロソフトの脅威分析センターは2024年9月、米国の大統領選を狙った海外からの「サイバー影響力作戦」を報告している。
具体的には、大統領候補のカマラ・ハリス氏の信用を失墜させるために、ロシア人活動家が俳優を使ってハリス氏がひき逃げ事故に関与したという虚偽の主張をでっち上げた偽動画を制作し、サンフランシスコの地元メディアを装ったウェブサイトを通じて拡散したというものだ。
これは、米国の政治を不安定にすることを目的としており、ハリス氏の信用を失墜させることで選挙結果に影響を与えようとしていると考えられる。