人工知能(AI)によって、2つの画像や動画の一部を結合させ、元とは異なる映像を作成する技術である「ディープフェイク」。映画制作の現場やバラエティー番組の演出などで活用される一方、女性芸能人の顔をアダルトコンテンツにはめ込んだり、政治家の動画を歪曲(わいきょく)、捏造(ねつぞう)してネガティブキャンペーンに利用したりするなど、悪用事例も多い。技術の進展に伴い、近年は著名人のみならず、ネットに顔を公開している一般人も被害を受けるリスクが高まっている。AIの社会問題に詳しく『悪のAI論』の著書もある桜美林大学教授の平和博氏に、ディープフェイクを用いた犯罪事例、悪用を食い止めるために必要な対策について聞いた。
続きを読む広がる「ディープフェイク」犯罪の実例と予防策、一般人も被害の恐れ
特集
最新記事
続・続朝ドライフ
「なんだかんだ情のある人にも見える」TBSドラマの部下役でも話題の前原瑞樹の演技力が朝ドラでも光る!〈ばけばけ第46回〉
ニッポンなんでもランキング!
年収が高い会社ランキング2025【大阪府・200社完全版】パナソニック、ダイキン工業、江崎グリコは何位?
ニュースな本
【中学受験】早く通わせれば正解じゃない!「伸びる子」と「伸び悩む子」の決定的な差
ニュースな本
「アリはしゃべるぞ!!」研究者たちが衝撃…巣穴で交わされていた「ヤバい会話」
第3の時間 デンマークで学んだ、短く働き、人生を豊かに変える時間術
「16時台に帰宅」が当たり前…それでも日本の2倍稼ぐ、北欧デンマークのゆるく働いて豊かになる謎







