しかも、これまでは自民党の「Dappi騒動」の時のように、敵対する政治勢力やメディア・評論家などへの執拗な攻撃は誹謗中傷や批判を情報の海に投げ込むことで、
「特定の政治家や学者、ジャーナリストなどを標的にし、この人たちの言動に合わせて執拗かつ巧妙なハラスメントを大量生成して送りつけることも可能だ」
「これにより、標的にされた人は精神的に追い詰められ、公的な議論の場から退場せざるを得なくなる」(IT media AI + 2026年2月4日)
こういう「悪意のあるAI群」にロックオンされて攻撃を受けたら、いくら1日100本ペースで自画自賛ショート動画を量産したところで、勝負にならない。
しかも、この論文が衝撃的なのは「世論操作」にも、人間の介在は必要なくなってくる未来を示唆していることだ。
現在のアメリカとイランの戦争で行われている「情報戦」を見てもわかるように、世界のAIプロパガンダは「偽動画・偽情報の作成」が当たり前のように普及している。そこに「悪意のあるAI群」を合わせることで、これらの偽動画、偽情報を人間のふりをして拡散して「本物の画像・情報」として定着させることができてしまう。
つまり、そう遠くない未来、AIがつくった嘘をAIが広めていくというプロセスを繰り返していくことで、人間不在の「世論」がつくられてしまうのである。
という恐ろしい未来を聞くと、「プラットフォームがAIを厳しく規制すべきだ」と思うだろうが、この論文でもそういうプラットフォーム企業の自主的な取り組みだけでは、これは防げないと指摘している。
限りなく人間に近いAIボットは、偽アカウントとはいえ、莫大な閲覧数や「いいね」を稼いでくれる。「評価経済」のど真ん中にいるプラットフォーム企業にとって、AIは収益向上や広告価値向上など大きく貢献してくれているありがたい存在だからだ。
「悪意のあるAI」が押さえる
メディアの「急所」
同じ理由で、メディアもAIプロパガンダの軍門に下ってしまう恐れがある。







