コンテンツへスキップ
logo
ディープフェイクとは?仕組みや企業へのリスクと対策を解説

ディープフェイクとは?仕組みや企業へのリスクと対策を解説


馬見塚堅

Mar 25, 2024

動画・画像・音声を人工的に合成して、元とは異なるものを生成する「ディープフェイク」。

映像制作の現場におけるCG制作に役立てられたり、AIアナウンサーによるニュース読みなどのシーンで活用され、創造の幅を広げたり人手不足を補ったりするという有用性があります。しかし近年では、ディープフェイクを悪用した詐欺なども発生しています。

企業もディープフェイクの悪用によるリスクが想定されるため、仕組みや事例、対策を知っておくことは重要です。本記事では、ディープフェイクの仕組み、使用シーン、リスク、事例、対策を解説します。

ディープフェイクとは?

What is Deep Fake?

ディープフェイクの仕組み

ディープフェイクには、本物に近いデータを自動的に生成する「GAN(敵対的生成ネットワーク/Generative Adversarial Networks)」という手法が使用されています。

GANは、GeneratorとDiscriminatorの2つのネットワーク構造(役割)で構成されています。

  • Generator:偽物のデータを作り出す「生成ネットワーク」
  • Discriminator:Generatorで生成された偽物のデータを本物のデータと比較し、本物か偽物かを判定する「識別ネットワーク」

偽物のデータを生み出し、本物か偽物かを判定する流れを何度も繰り返すことで、GeneratorとDiscriminatorの精度が高まり、Generatorがより本物に近いデータを自動的に生成できるようになります。

この過程で、生成する対象の特徴が数値で表されるため、色や模様など特定のデータをピンポイントで変えることも可能です。他のデータを加えて、新たなものを自動的に生成することもできます。

ディープフェイク技術の使用シーン

usage scenarios for deep faking technology

ディープフェイクは、CG制作の負担や映画などの再撮影の手間を減らしたり、人間の代わりにアナウンサーとして話したりと、積極的に活用されるシーンがあります。

H3 動画・CG制作

映画制作などエンターテイメント業界で、ディープフェイクが有効活用されています。

特にCG制作においては、人間以外の生き物をディープフェイクで簡単に生成できるようになり、特殊メイクを施すなどの制作の負担を減らすことができています。また、セリフの変更などの必要がある場合に、ディープフェイクを用いれば、再撮影せずとも動画を完成させることができます。

2018年に公開されたマーベル・スタジオ作品『アベンジャーズ/インフィニティ・ウォー』では、悪役サノスの撮影にAI技術が利用されました。150箇所ほど印をつけた顔を複数のカメラで撮影してデータを取得し、それを用いて俳優の顔をデジタル上に高解像度で出力。キャラクターとして表情を豊かに表現することができました。

AIアナウンサー

ディープフェイクにより、実在しないキャラクターがAIアナウンサーとしてニュース原稿を読み上げることも可能です。

中国の国営放送局「新華通訊社」では、まるで本物のアナウンサーが原稿を読み上げているかのような動画を自動生成するシステムを開発しました。日本の地上波番組でも、テレビ朝日の先輩アナウンサーの顔や声を基に作られた「花里ゆいな」がニュースを読んでいます。

AIアナウンサーがいることで、突発的なニュースにもすぐに対応できたり、24時間ニュースを報道できるようになったりとメリットがあります。

ディープフェイクが企業に与えるリスク

The risks deep fakes pose to companies

ディープフェイクによるリスクは、企業にも及びます。

2019年には、海外の企業のCEOの声がディープフェイクにより偽装され、約2,600万円を騙し取られる被害が発生しました。声質から口調まで高精度に再現されており、騙されるリスクが格段に上がっているのです。

ここではディープフェイクによる被害やリスクの種類をご紹介します。

1. 詐欺・ソーシャルエンジニアリング

ディープフェイクは、「ソーシャルエンジニアリング」の手段として利用されることがあります。「ソーシャルエンジニアリング」とは、マルウェア(悪意のあるソフトウェア)を利用することなく、詐欺を働いたりパスワードなどの情報を盗み出したりする手段のことで、企業にもリスクをもたらします。

例えば、経営陣や従業員を模倣したディープフェイクを使い、信頼を悪用して振込詐欺を行ったり、パスワードを盗み出したりするのが一例です。

企業は、ディープフェイクによる詐欺を見破るための教育や、二重認証などのセキュリティ対策を強化する必要があります。

2. 不正認証

ディープフェイクは顔認証システムなどでも悪用されるようになり、企業のセキュリティ面において大きなリスクとなり得ます。

不正者がディープフェイクを用いて従業員や顧客の顔を再現し、これを使ってアクセス制御システムを突破するのが手口です。このような不正認証によって、企業のデータ漏洩やシステムへの不正アクセスが起こり、企業の信頼性が損なわれるリスクがあります。

対策として、多要素認証の導入や、異常行動検知システムの強化が必要です。

3. 偽広告

ディープフェイクは、偽の広告やプロモーションに利用されるリスクがあります。

企業の製品やサービスに関する虚偽の情報が、フェイク画像やフェイク動画を通じて拡散され、企業のブランドイメージを著しく損なう可能性があります。ディープフェイクを使えば製品をクリエイティブに宣伝できる一方で、他社の製品を貶める偽広告が拡散されることも考えられます。

偽広告は消費者の誤解を招き、市場に混乱をもたらす恐れがあります。企業は、自社製品に関する正確な情報を積極的に提供し、偽広告を即座に発見して対応できる監視体制を整えることが必要です。

4. 偽情報の拡散

企業に関するフェイクニュースや根拠のない噂がディープフェイクによって作成され、SNSを通じて急速に広がることがあります。

また、あたかも多くの人が自発的に発信しているように見せかけて裏から意見主張・説得を行う「アストロターフィング」も起こりうるでしょう。

フェイク画像やフェイク動画が拡散されることで、企業の株価が不当に操作されたり、顧客の信頼を失ったりするリスクが生じます。

企業は、偽情報の監視と迅速な対応計画を立てることが重要です。また、情報を公開したり、顧客や投資家とのコミュニケーションを強化したりして情報の透明性を維持することが、偽情報に対抗する上で効果的です。

ディープフェイクの悪用事例

ディープフェイクは、サイバーセキュリティの世界で脅威とされています。

1. AI音声を使ったなりすまし詐欺

対象者の声をディープフェイクで作成し、家族や友人に電話をかけて金銭や機密情報を騙し取る詐欺が発生しています。

ディープフェイクボイスを悪用した詐欺は、特に海外で広がっています。2023年5月に発表された調査では、「AI音声の詐欺に遭遇したことがある」と回答した人は日本国内では3%なのに対して、欧米や日本などの7ヶ国全体では10%でした。

参考:Beware the Artificial Impostor: McAfee

3秒間の音声データがあれば高精度で合成ができるようになったことや、国内のオレオレ詐欺の被害額が2022年で前年より38.7億円増え129.3億円になったことなどを考えると、今後日本でもAI音声による被害は拡大する可能性が高いでしょう。

参考:VALL-E(エックス)令和4年における特殊詐欺の認知・検挙状況等について

2. 偽のビデオ電話会議で送金詐欺

音声だけでなく、ビデオ電話会議でもディープフェイクを悪用した詐欺が起こりました。

香港では、多国籍企業の財務担当者が、詐欺師に2,500万ドル超を支払った事例があります。2024年1月のビデオ電話会議で、同社のCFOになりすましたディープフェイクが使われ騙されたのです。財務担当者以外の社員もビデオ電話会議に参加していましたが、それらもディープフェイクによる合成でした。

3. 政治家のディープフェイク動画によるなりすまし

政治家のスピーチ映像がディープフェイクにより生成され悪用されるケースがあります。

元アメリカ大統領のオバマ氏が「トランプ大統領は完全にマヌケだ」と発言するような動画が2018年に公開されました。この動画はディープフェイクだと公言されて拡散されていましたが、見た人々が信じた場合には選挙での投票に影響をもたらすでしょう。

他にも、ウクライナのゼレンスキー大統領が、ウクライナ軍に武器を置くように呼びかける動画が2022年にインターネット上に投稿されました。投稿直後にゼレンスキー大統領自身が否定し、FacebookとYouTube上でも動画が削除されました。

今後もディープフェイク動画や音声による詐欺・なりすましは発生するものと考えられます。

企業におけるディープフェイクへの対策

Countermeasures against deep fakes in the corporate

ディープフェイクによる動画・画像・音声は高精度になっており、なかなか真偽を見分けるのが難しい状況です。それでも騙されずに正しい判断と対応をするには、企業は以下のような対策を行ってください。

1. ファクトチェックの実施

企業がディープフェイクに対抗する上で、「ファクトチェック」の実施はとても重要です。企業内外で流通する情報に対して、その真偽を確認し、誤情報や偽情報を特定します。

これには、ファクトチェックツールの利用や、専門のチームを社内に設置して定期的に情報の監査を行うなどの方法が考えられます。正確な情報提供と偽情報の迅速な訂正は、企業の信頼性維持に不可欠であり、顧客との信頼関係を守る上でも極めて重要です。

2. ディープフェイク検出ツールの導入

ディープフェイクが進化するにつれて、偽情報を特定して検出する技術も同様に発展しています。

「ディープフェイク検出ツール」の導入によって、偽物の動画や画像、音声が社内外で使用されるのを防ぐことができます。検出ツールでは、AIを活用してディープフェイクの特徴を分析し、本物と偽物を区別してくれます。

導入にあたって、最新の検出技術を持つツールを選び、定期的なアップデートを行い、ディープフェイクの進化に常に対応することが重要です。

3. C2PAの利用

C2PA(Coalition for Content Provenance and Authenticity)は、コンテンツの出所と真正性を証明するための技術標準の開発により、誤・偽情報が広まるのを抑える共同プロジェクトです。AdobeやMicrosoftなどと連携しています。

C2PAが提供しているシステムを導入すれば、企業はデジタルコンテンツが作成・編集された経緯を追跡し、その信頼性を評価することができます。また、自社が発信するコンテンツの真正性を証明し、消費者に対して透明性の高い情報を提供することも可能です。

まとめ|ディープフェイクの悪用による被害を防ごう

ディープフェイクは、複数の素材を合成して、元とは異なる素材を生成する技術です。この技術はエンタメ業界の効率改善などに活用される一方、近年では悪用されるようになり、詐欺やなりすましによる被害が急増しています。

企業は、ディープフェイクによる被害に遭わないためにも、ファクトチェックやディープフェイク検出ツールの導入、C2PAの技術の利用を検討してみてください。また、世の中に出回っている情報の中から、偽情報を発見していち早く対応することも重要です。

自社に関するフェイクニュースを検出するには、SNS・メディアの監視が必要です。ソーシャルメディア分析が可能な「Meltwater」なら、メディアモニタリングが可能です。世界中のニュースを把握でき、設定した検索キーワードに関連したニュースが流れてきた瞬間に通知が届きます。ディープフェイクの悪用による被害対策として検討してみてください。

この記事の監修者:

馬見塚 堅 (Meltwater Japanエンタープライズソリューションディレクター)

2016年にMeltwater Japan株式会社入社。

外部データ活用に向けてマーケティング・企画・広報部向けのコンサルティングを7年で200社以上を担当。 現在は、大手企業や官公庁向けのソリューション企画に従事。インフルエンサーマーケティングや消費者インサイトに関するセミナー実績多数。

趣味:旅行、子育て情報収集、仮想通貨、サッカー観戦(川崎フロンターレの大ファンです)

LinedIn