顔や声を本物そっくりに再現する「ディープフェイク」。もともとはエンタメや映像編集の技術として注目されましたが、ここ数年で注目を集めているのは、ヨーロッパやアジアで報道されている「なりすまし送金」「恐喝」のような、企業や個人を狙った詐欺との結びつきです。
本稿では、ディープフェイク詐欺を「怖い技術」の話としてではなく、あくまでビジネスとしての犯罪──つまり、コスト・収益・リスクのバランスの上に成り立つ経済行為として眺めてみます。どこに初期投資が必要で、どこでスケールし、どこに検挙リスクが集中するのか。被害を受ける側にとっては、その構造を理解することが、対策の優先順位を決める手がかりになります。
ディープフェイク詐欺が急に「割に合う」ようになった背景
ディープフェイク自体の研究は、アメリカや中国、欧州連合(EU)各国の大学・企業で2010年代後半から加速しました。ただ、犯罪ビジネスとしての採算性という意味では、当初はそれほど魅力的ではありませんでした。高性能なGPUや専門的なプログラミングのスキルが必要で、素材の収集やモデルの学習にも手間がかかったからです。
状況が変わり始めたのは、2020年代に入ってからです。オープンソースの画像・音声合成フレームワークが登場し、クラウド上で安価にGPUを借りられるようになり、「ある程度出来合い」のディープフェイク生成サービスも増えました。日本からでも、数千円〜数万円程度のクラウド費用で、実験レベルの動画・音声を作れる環境が整ってきたのです。
犯罪側から見れば、これは次のような意味を持ちます。
- 高額だった初期投資(ハードウェア・ソフトウェア)が、レンタルやサービス利用で分割払いに近い形になった。
- AIに詳しい「技術担当」と、詐欺のシナリオを考える「実行担当」が分業しやすくなった。
- 映像や音声の出来栄えが「十分それらしく見える」レベルまで到達し、被害者の心理的ハードルを越えやすくなった。
世界銀行や国連薬物犯罪事務所(UNODC)が推計する国際的な組織犯罪市場は、年間で数兆ドル規模とされています。その巨大な闇市場の中で、ディープフェイク詐欺はまだ一部に過ぎませんが、「既存の特殊詐欺と親和性が高く、スケールさせやすい新しいツール」として組み込まれつつあるのが現状です。
ディープフェイク詐欺のビジネスモデルとコスト構造
ディープフェイク詐欺の特徴は、「従来のなりすまし詐欺の成功率を上げるためのオプション」として機能している点です。ここでは、ごく大まかにビジネスモデルとコスト構造を分解してみます。
まず、典型的な企業向けなりすまし送金詐欺(いわゆるビジネスメール詐欺、BEC)と比較すると、構造は次のようになります。
- 従来型:メールや電話で「上司・取引先」のふりをして、急な送金を要求する。
- ディープフェイク型:上司の「声」や「顔」を模した音声・動画を用いて、信憑性を高める。
ここに追加されるコストは、大きく分けて3つです。
- 素材収集コスト:上司や役員の動画・音声・写真の収集。YouTubeやSNS、企業ウェブサイトの広報素材が狙われます。
- 生成環境コスト:クラウドGPUの利用料や、ディープフェイク生成ツールの利用料。
- 人材コスト:ツールを扱える技術担当者、スクリプト(台本)を考える担当者、実際にターゲットとやり取りする担当者。
一方で、成功した場合のリターンは大きく、ニュースで報道されたヨーロッパや香港のケースでは、1件あたり数百万〜数十億円規模の送金が行われたとされています。仮に1件成功で数億円レベルのリターンが見込めるなら、数十万円〜数百万円の準備コストを投じるインセンティブは十分に生まれます。
さらに、ディープフェイク素材は一度作ってしまえばさまざまなシナリオに再利用可能です。例えば、同じ役員になりすました音声を、複数の子会社や取引先に向けて少し文章だけ変えて再生することもできます。この「使い回し」が可能な点が、犯罪ビジネスとしての採算性を押し上げる要素になっています。
具体事例:欧州・アジアで報道されたディープフェイクなりすまし詐欺
ここでは、報道などで広く知られるようになった、ヨーロッパやアジアでの企業向けディープフェイク詐欺の代表的なパターンを整理します。実際の事件名や企業名は伏せつつ、構造と流れに注目します。
ケース1:ヨーロッパ企業の「音声なりすまし送金」
2019年ごろ、イギリスの子会社の責任者が、ドイツ本社のCEOになりすました音声にだまされ、数十万ユーロを送金したと報じられたケースがあります。構造を簡略化すると、次のようになります。
- 上流:攻撃グループがCEOの演説やインタビュー動画から音声を収集し、音声合成モデルを作る。
- 中流:用意した「台本」を、音声合成モデルに読み上げさせ、電話越しに子会社責任者へ連絡する。
- 下流:子会社側は、本社CEOの声だと信じ込み、ハンガリーなど他国の口座へ送金する。
このケースでは、声質だけでなく、発音の癖やイントネーションまで「十分それらしく」再現されていたと報じられました。子会社側からすれば、「直接声を聞いた」「名前も部署も合っている」「急ぎの案件だ」という条件が重なれば、疑いづらいのは自然です。
ケース2:アジア企業の「オンライン会議ディープフェイク」
2020年代前半には、香港で、オンライン会議の画面上に映る複数の参加者がすべてディープフェイクだったとされる事案が報道されました。ここでは、映像ディープフェイクと音声合成が組み合わされ、まるで本物の幹部たちと会議しているかのように見せかけられたとされています。
- 上流:攻撃側は、幹部たちの写真や動画をもとに顔ディープフェイクモデルを用意し、ビデオ会議ツール上でリアルタイム合成を行う。
- 中流:会議中に「極秘の買収案件」「緊急の資金移動」が話題にされ、参加者全員がそれを当然のこととして振る舞う。
- 下流:被害企業の担当者は、「複数の幹部が同じ方向性で指示している」と受け止め、海外の口座へ多額の送金を行う。
ここまで来ると、もはや「声」だけでなく、「顔」「口の動き」「表情」「会議の空気」全体が詐欺に利用されていることになります。新型コロナウイルス感染症の流行以降、オンライン会議が当たり前になった環境だからこそ成立した新しいタイプのなりすましと言えます。
ケース3:個人を狙った親族なりすましと恐喝
企業だけでなく、日本やアメリカでも「親族の声」を使ったディープフェイク詐欺や、性的な画像や動画を合成して「ばらまく」と脅す恐喝が報じられています。これらの多くは、SNSに投稿された写真や動画から素材が集められます。
- 親族なりすまし:子どもや孫の声を真似た音声で高齢者に電話をかけ、「事故を起こしてしまった」「お金が必要だ」と訴える。
- セクストーション型:合成画像や動画を送りつけ、「あなたの顔と合成した動画を家族や職場に送る」と脅し、暗号資産や送金を要求する。
このタイプの被害は、金額としては数万円〜数十万円と比較的小さいことも多い一方で、心理的なダメージが大きく、泣き寝入りが起きやすい領域でもあります。
被害の広がり方と社会・経済への影響
ディープフェイク詐欺による被害は、単に「一度の送金でいくら失ったか」という金額の問題にとどまりません。信用とガバナンス、さらには法制度にも長期的な影響を及ぼします。
まず、企業レベルでは次のような影響が考えられます。
- 内部統制の見直し:2名以上の承認や、多要素認証の導入など、送金フロー全体の見直しが必要になる。
- 取引先との信頼関係:一度でもディープフェイク詐欺に巻き込まれると、「あの会社は危ない」というレッテルを貼られるリスクがある。
- 保険・コンプライアンスコスト:サイバー保険や、不正送金に関する保険料の増加、監査法人からの指摘対応などで、追加コストが発生する。
国際的な視点では、国連薬物犯罪事務所(UNODC)や金融活動作業部会(FATF)が指摘するように、不正送金やマネーロンダリングの一部としてディープフェイク詐欺が位置づけられつつあります。例えば、送金先がオフショア金融センターや、制裁リスクの高い国・地域に分散されるケースでは、マネロンや制裁回避のルートとして利用される恐れがあります。
個人レベルでは、「映像や音声が証拠になる」という前提が崩れることで、次のようなコストが生じます。
- 本物の被害訴えの証明が難しくなる(「どうせディープフェイクだろう」と疑われる)。
- 警察や裁判所が、証拠として映像・音声を扱う際の検証コストが増大する。
- 一般の人々が「何をどこまで信じてよいのか分からない」という心理的疲労を抱える。
ディープフェイク詐欺は、個々の事件ごとの被害額だけを見ると、世の中全体の犯罪経済の中でまだ小さなパイかもしれません。しかし、信用インフラ全体への影響という観点で見ると、じわじわと効いてくる「見えにくいコスト」を生み出す存在になりつつあります。
規制・技術的対策・企業のリスク管理の方向性
こうしたリスクに対して、各国や国際機関はさまざまな対策を模索しています。欧州連合(EU)はAI規則案(いわゆるEU AI Act)でディープフェイクの扱いについて言及し、日本でも総務省や経済産業省が、生成AIと偽情報に関する検討会を設けています。
規制面では、次のような方向性が見られます。
- ディープフェイクコンテンツへのラベリング義務付け(「これは合成です」と明示する)。
- 悪質ななりすまし・名誉毀損・恐喝に対する刑事罰の明確化や量刑の見直し。
- プラットフォーム事業者に対する、違法コンテンツの削除・アカウント停止義務の強化。
技術的対策としては、「AI検知AI」が重要なキーワードになります。プラットフォームや企業は、アップロードされた動画・音声・画像がディープフェイクである可能性をスコアリングし、疑わしいものを人間の審査に回すといった仕組みを導入しつつあります。
しかし、攻撃側も検知モデルを研究し、「どのような特徴を消せばバレにくいか」を探る動きを見せています。これは、スパムフィルタやアンチウイルスと同じく、完全な決着のない「イタチごっこ」の世界です。
企業レベルのリスク管理として現実的なのは、技術に過度な期待をせず、プロセスと教育を組み合わせることです。
- 高額送金や機密情報のやり取りには、「チャット+メール+電話」のように複数の経路で確認する。
- 役員や管理職の「声」「顔」だけで判断しない運用ルール(キーワード確認、コードワードなど)を導入する。
- 従業員研修で、ディープフェイク詐欺の代表的なパターンと、実際にあった事例を共有する。
特に、日本のように「上司の指示に逆らいづらい」文化では、「いったん疑って確認することは職務怠慢ではない」というメッセージを経営層が明示することが重要です。
まとめ:読者が意識すべきポイント
ディープフェイク詐欺は、一見するとハイテク犯罪の一種に見えますが、その本質は「既存のなりすまし詐欺の説得力を高めるための追加ツール」です。最後に、読者が押さえておきたいポイントを整理します。
- ディープフェイク技術の進歩とクラウド環境の普及により、なりすまし詐欺のコストが下がり、ビジネスとして“割に合う”領域が広がっている。
- 企業向けの送金詐欺だけでなく、個人を狙った親族なりすましやセクストーションなど、幅広いパターンで顔と声が悪用されうる。
- 被害額だけでなく、「映像や音声をどこまで信じてよいか」という信用インフラ全体への影響が、長期的な社会コストとなる。
- 規制や検知技術だけでは問題は解決せず、企業や個人レベルの運用ルール・教育・文化が試される段階に入っている。
- 「本物そっくりだから信用する」のではなく、「本物そっくりでも一度立ち止まる」という姿勢が、自分と組織を守る最初の防波堤になる。
ディープフェイク詐欺をめぐる攻防は、今後も進化を続けます。犯罪側が新しいツールを手に入れるたびに、防御側もまた学び、対応を更新していく必要があります。「技術の名前」よりも、「お金と信用の流れ」がどう変わるのかに目を向けることが、この分野を理解する近道です。
柏木 慧(AI・先端技術犯罪担当)/ 犯罪経済ラボ
関連記事
参考になる公的情報源
- 国連薬物犯罪事務所(UNODC)が公表する、組織犯罪・サイバー犯罪に関する年次報告書や統計資料
- 金融活動作業部会(FATF)によるマネーロンダリング・テロ資金供与対策、および仮想資産サービスプロバイダに関する勧告・相互評価報告書
- 各国の金融監督当局(例:金融庁、欧州銀行監督機構)が公表する不正送金・サイバーセキュリティ・ディープフェイク関連のガイドラインや解説資料
- 欧州連合(EU)、世界銀行、OECDなどが公表する、AIガバナンス・偽情報対策・違法資金フローに関するレポート
重要な注意事項
本記事は、闇経済・犯罪ビジネス・マネーロンダリング・裏社会・ダークウェブなどの「構造」や「歴史」「社会的影響」「規制の枠組み」を解説するものであり、実在の犯罪行為を推奨・教唆・助長する意図は一切ありません。本記事の内容を利用して違法行為を計画・実行・支援したり、具体的な手口を模倣したりすることを固く禁じます。
本記事は、法律相談・投資助言・その他の専門的アドバイスを提供するものではありません。実際の行動や判断は、必ずご自身の責任で行い、必要に応じて弁護士・公認会計士・税理士・金融機関などの専門家にご相談ください。
サイト全体のスタンスと詳細な注意事項については、「犯罪経済ラボについて(目的と注意事項)」をご確認ください。

コメント