人工知能やクラウド技術などの進化を追い続けている小林雅一氏の新著、『生成AI―「ChatGPT」を支える技術はどのようにビジネスを変え、人間の創造性を揺るがすのか?』が発売された。同書では、ChatGPTの本質的なすごさや、それを支える大規模言語モデル(LLM)のしくみ、OpenAI・マイクロソフト・メタ・Googleといったビッグテックの思惑などがナラティブに綴られており、一般向けの解説書としては決定版とも言える情報量だ。
この連載では、小林氏による書き下ろしで、ビジネスパーソンが押さえておくべき「AIの最新状況」をフォローアップ中だ。今回は、『生成AI』のなかでも取り上げられ、イスラエル・パレスチナ紛争などでも世界的に問題になった「生成AIによるフェイク情報」について解説する。

世界にあふれるフェイクニュース

なくなりつつあるリアルとフェイクの境界線

 ChatGPTやMidjourneyなど生成AIが急速に普及する中、リアルとフェイクの境界線がぼやけつつある。

 昨年から今年にかけてゼレンスキー大統領がロシアへの投降を呼びかける偽動画や、バイデン大統領が第三次世界大戦の開始を告げる偽動画などがネット上で拡散し問題視された。日本でもニュース番組出演を装った岸田首相の偽動画がSNS上で広がり、テレビ局が抗議するなど物議を醸した。

 また中東を軸とする国際政治の舞台では、「X(旧称ツイッター)」や「テレグラム」をはじめソーシャル・メディア上にイスラエルとハマスの武力衝突に関するデマ情報などが拡散し、生成AIの導入が状況をさらに複雑化している。

 今年10月7日に起きたハマスによるイスラエルへの大規模攻撃から約2週間後、Xのハマス関連アカウントには(パレスチナではなく)イスラエル側の難民キャンプを撮影したとされる画像が投稿された(図1)。

 しかし、そこに映し出されたイスラエルの国旗には2個の星印が描かれている。本物のイスラエル国旗であれば星印は1個のはずだから、この画像は恐らくは何らかの生成AIを使って作成されたフェイク画像と見られている。そこにはアラビア語で「イスラエル人がテントに住んでいる!」と揶揄するキャプションもついている(この画像はそれから間もなくXから削除された)。

本物でも偽物と疑われるようになる、「嘘つきの配当」

 これとは逆のケースもある。イスラエル政府の公式アカウントが10月12日、Xに投稿した「ハマスの攻撃を受けた幼児の焼死体」とされる画像だ。投稿された直後から「生成AIで作成したフェイク画像ではないか」という見方が広がったが、複数のAI専門家による検証によれば、そのような技術は恐らく使われていないという(出典:https://www.nytimes.com/2023/10/28/business/media/ai-muddies-israel-hamas-war-in-unexpected-way.html)。

 つまり被害現場で撮影された本物の写真である可能性が高いが、それでも「イスラエルが(画像生成AIなどを使って)情報を操作している」との見方はすでにソーシャル・メディア上で拡散してしまった。

 あるいは「本物」とも「偽物」とも判定しきれない微妙なケースもある。

 10月17日、ガザ地区の病院がミサイル攻撃で破壊されて470人以上が死亡して間もなく、イスラエル政府はハマスの2人のメンバーが「ミサイル攻撃は(イスラエル軍ではなく)パレスチナ側による誤爆だ」と通話するのを傍受したとする音声ファイルを公開した。

 これに対しても「生成AIで偽造したフェイク音声ではないか」とする見方がささやかれたが、ニューヨーク・タイムズやBBCなど主要メディアによれば「真偽のほどは現在に至るまで確認されていない」という。

 専門家によれば、少なくとも現時点ではソーシャルメディアに流れる大量のテキスト、画像、動画あるいは音声など多彩なフェイク情報の中で、生成AIで作成されたものは比較的少数だという。むしろフェイク情報の大半は、過去の戦争・紛争などで撮影された惨状の映像をあたかも今起きているかのように見せかけたものであるという。

 しかしコップの水にインクを一滴垂らしただけで、それがみるみる拡散するように、生成AIによるフェイク映像はごく僅かが出回るだけで、インターネット上を流れる情報全体の信頼性を低下させてしまう。

 特にMidjourneyやDALL-E、Stable Diffusionなど最近の画像生成AIを使えば、言葉による指示で簡単にフェイク画像を描き出すことができる。それ故、戦争の悲惨な現場を撮影した物議を醸す写真などは、たとえそれが本物であっても「(AIによる)フェイク画像ではないか」という疑念を見る者の心に掻き立ててしまう。

 このように本物が偽物と見られてしまう現象は一般に「嘘つきの配当(liar’s divident)」と呼ばれているが、生成AIの登場によって今後それが加速すると懸念されている。つまり生成AIが作り出すフェイク情報自体よりも、むしろ本物の情報でも「フェイクではないか?」と考えてしまう疑心暗鬼による悪影響の方が大きいということだ。

来年の大統領選挙でも大きな懸念事項に

 今後、生成AIによるフェイク情報が一際憂慮されているのが来年のアメリカ大統領・議会選挙だ。すでに今年3月には、ニューヨークの路上で警官に取り押さえられ逮捕されるトランプ前大統領のフェイク画像が(生成AIの一種である)Midjourneyで作成され、ネット上で拡散するなどの兆候が現われている(図2)。

 また今年6月には、共和党のロン・デサンティス候補の陣営が生成AIで製作したと見られるトランプ前大統領らのフェイク動画をXに投稿して世間の批判を浴びた。

トランプ逮捕のフェイク画像図2 画像生成AIで作成されたトランプ逮捕のフェイク画像
出典:https://arstechnica.com/tech-policy/2023/03/fake-AI-generated-images-imagining-donald-trumps-arrest-circulate-on-twitter/

 これらのフェイク画像は極端なケースと言えるが、それ以外にも民主・共和両陣営の選挙コンサルタントらは様々な生成AIの使い方を想定しており、その多くは合法的だ。

 たとえば選挙資金集めのメールや広報文書、あるいは政治広告に使われるコピーやプロモーション・ビデオ、音楽などをChatGPTをはじめとする各種の生成AIで製作すれば、従来の人手に頼っていた時代に比べて、桁違いに費用や時間を節約できると見られている。

 一方で、選挙活動を監視する市民団体などは、生成AIを悪用した対立候補への誹謗中傷やデマなどのネガティブ・キャンペーンを懸念している。

 ここ数年、「GAN(敵対的生成ネットワーク)」や「ディープフェイク」など特殊なAI技術で作られた「政治家の偽動画」などがネット上に出回って物議を醸してきた。しかし一般の見方に反して、実はこれらのAI技術を使用するには相応の専門知識が必要とされ、誰でも簡単に使えるような代物ではなかった。

 これに反して最近の生成AIは、言葉による指示で簡単にフェイク画像や偽文書などを作り出すことができる。つまりAIの専門知識を持たない一般人でも、ネガティブ・キャンペーンなどに使われるフェイク情報を素早く製作できるようになったのだ。

 昨年の春にDALL-Eなどの画像生成AIが注目を浴び始めた当初、それらが描き出す画像には「人物の手が奇妙な形状をしている」「街中の看板などに書かれた文字(であるべき情報)が文字の体をなしていない」「本来別々であるはずの2つの物体が融合している」など数々の不自然な点が見受けられた。しかし、その後の技術改良によって、最近の生成AIではそれらの問題が解消され、単なる目視によって生成AI製のフェイク画像を判別するのは難しくなっている。

 そこで期待を集めているのが、人間に代わって自動的にフェイク画像を判定するツール(ソフトウエア)だ。すでに米オプティク(Optic)の「AI or Not」をはじめ少なくとも数十種類が存在するが、これらのツールを使うとネット上に出回る動画や写真などが生成AI製のフェイク画像である確率を算出してくれる(図3)。

ローマ教皇の偽画像を判定する様子図3 判定ツールが生成AI「Midjourney」で作られたローマ教皇の偽画像を判定する様子
出典:https://www.optic.xyz/

 ChatGPTなどテキスト生成AIに対しても、同様の判定ツールが数多く存在する。米プリンストン大学の学生が開発し、後に起業して製品化した「GPTZero」などがよく知られている。また、ChatGPTの開発元であるOpenAI自身も、同様の判定ツールを自主開発して今年1月にリリースした。

判定ツールに頼るよりも情報リテラシーを高める方が賢明

 ただ、問題はこれらの判定ツールの精度だ。OpenAIによれば、同社が自主開発した判定ツールが生成AI(主にChaGPT)製の文書を正しく生成AI製と判定する確率は26パーセント、逆に人間が書いた文書を誤って生成AI製と判定してしまう(偽陽性)確率は9パーセントという。それでも試しにリリースしてはみたものの、この程度の精度では実際に使い物にならなかっため、同社は今年7月、この判定ツールの提供を中止した。

 これに対し、GPTZeroでは生成AI製の文書を正しく判定する確率は90パーセント以上に達するとされるが、逆に偽陽性の確率もかなり高い。このため、自力で書いたレポートなどを誤って生成AI製と判定された学生らの苦情が、米レディットなどのソーシャル・メディアに殺到したこともある。

 一方、画像生成AIで作成されたフェイク画像を判定するツールも多数存在するが、これらの判定精度も完璧からは程遠い。

 こうしたツールは画像を構成する多数のピクセル(画素)の配置パターンなどに潜む不自然さを検出して生成AI製のフェイク画像を判定する。しかし生成AIのユーザーが意図的に画素数を低下させたり、何度もコピーを繰り返して画質を劣化させるなど、ちょっと工作するだけで、これらの判定ツールを騙すことができる。

 また、これらの画像判定ツールはピクセルに注意を払う一方で、肝心の画像の内容を吟味することができない。たとえば生成AIで製作された「身長4メートルもある毛むくじゃらの猿人と普通の人間が並んで立っている写真」など、私達人間なら容易に偽物と判定できる画像を誤って本物の写真と判定してしまうこともある。

 今後テキストや画像、音声などの生成AIとそれらの判定ツールが互いに競い合う形で双方の技術改良が進んでいく可能性が高いが、結局のところ判定ツールのような技術を使っても、フェイク情報を正確に判別するのは難しいと見られている。

 むしろ私達人間の方が日頃から文書や画像など各種コンテンツのコンテキストや常識に照らして、それらの真偽を判定できる情報リテラシーを養うことの方が重要かもしれない。ただ、これは「言うは易く、行うは難し」の典型であり、有権者の多くは「自分の信じたいことだけを信じる」という傾向があることから、生成AIによるフェイク情報の蔓延は今後深刻な問題となっていく恐れがある。

 ちなみに、米ビッグテックの一角をなすメタは大統領選挙をにらんで、来年からフェイスブックやインスタグラムなどに掲載する政治広告の制作に生成AIを使用したときには、その旨を明記することを義務付けた。ただ、肝心のニュース報道については制御し切れないだけに、どこまでの効果が期待できるかは疑問だ。