人工知能(AI)によって、2つの画像や動画の一部を結合させ、元とは異なる映像を作成する技術である「ディープフェイク」。映画制作の現場やバラエティー番組の演出などで活用される一方、女性芸能人の顔をアダルトコンテンツにはめ込んだり、政治家の動画を歪曲(わいきょく)、捏造(ねつぞう)してネガティブキャンペーンに利用したりするなど、悪用事例も多い。技術の進展に伴い、近年は著名人のみならず、ネットに顔を公開している一般人も被害を受けるリスクが高まっている。AIの社会問題に詳しく『悪のAI論』の著書もある桜美林大学教授の平和博氏に、ディープフェイクを用いた犯罪事例、悪用を食い止めるために必要な対策について聞いた。
続きを読む広がる「ディープフェイク」犯罪の実例と予防策、一般人も被害の恐れ
特集
最新記事
続・続朝ドライフ
そりゃないでしょ…初対面の相手を「おっちょこちょいのメイド」呼ばわり!気まずい空気でオンナの戦い〈ばけばけ第64回〉
自分の意見で生きていこう
日本初! ベストセラー著者のキャラクターを再現した有償の対話型AIサービス「ちきりんAI on LINE」を期間限定でリリースします
リーダーの仮面
アホな管理職は部下を「子ども扱い」する。できるリーダーは何をする?
ほったらかしで年間2000万円入ってくる 超★高配当株 投資入門
【資産9億円の元消防士が教える】上昇相場は「見ているだけ」が正解!? 高値づかみを防ぐプロの「待つ技術」
ぶっちゃけ相続「手続大全」【増補改訂版】
【一発アウト】3年で消える「保険金の罠」身近な人が亡くなった時の鉄則とは?







