ディープフェイクの脅威にどう備えるべきか

サイバー犯罪者はディープフェイク技術を企業への攻撃に利用しています。私たちはどのように備えるべきでしょうか。

ディープフェイクとは、AI(人工知能)を使用して、画像、動画、音声などを非常にリアルに偽造する技術のことを指します。ディープフェイク技術はすでに5年ほど前から急速に発展してきました。実際のデータと生成されたデータを組み合わせて、偽物を作成するというアイデアはそれほど新しいものではありません。しかし研究者たちは、ニューラルネットワークと深層学習(ディープラーニング)を用いてプロセスを自動化し、偽の画像、動画、音声を生成することが可能になりました。

以前は、生成された偽物の品質は低く簡単に見破ることができました。しかし最近では偽物だと気づくのが極めて難しいものもあります。これは、情報の保存と処理にかかるコストの低下、オープンソースソフトウェアの出現によってさらに進化しているためです。この傾向は、将来的にディープフェイクが最も危険な技術の一つになる可能性を示しています。

止まらないディープフェイクの進化

2021年7月、ディープフェイクを研究するグループは、俳優モーガン・フリーマンさんが「現実の認識」について語るディープフェイク動画を公開しました。

非常にリアルに見えますが、映っているのは実物のモーガン・フリーマンさんではありません。顔の表情、髪の毛、目の動きなどすべてが高品質で、目立つビデオのアーティファクトさえありません。非常に精巧なディープフェイクであり、現実に対する私たちの認識を欺くことがどれほど容易になったかを示しています。

ディープフェイクは潜在的な脅威

ディープフェイク技術がいち早く活用されたのは、アダルトコンテンツ産業です。最初の被害者は、主にハリウッド女優や芸能人など有名人でしたが、フェイクポルノの問題は、一般の人も被害に遭うほど深刻な社会問題となりつつあります。このようにディープフェイクを悪用した犯罪は、私たちの生活においても脅威なのです。例えば、学校でのいじめ、お金を要求する詐欺電話、会社経営者からの恐喝、産業スパイなど、ディープフェイク技術は様々な形で悪用され得る可能性があります。

企業への攻撃で広く知られている最初の事例は、2019年のイギリスのエネルギー会社に対する強盗事件です。詐欺師は、音声を変えるボイスチェンジ技術を使って、この企業のCEOになりすまし、22万ユーロを盗もうとしました。二つ目の事例は、UAEアラブ首長国連邦で2020年、詐欺師が、音声のディープフェイクを使って銀行の支店長を騙し、3500万ドルを盗むことに成功した事件です。このように、電子メールやソーシャルメディアのプロフィール情報を使ってなりすます従来の詐欺の手法から、音声ディープフェイクを使ったより高度な攻撃方法が使われるようになりました。

2022年には興味深い事例が報告されています。最大の暗号通貨プラットフォーム、Binanceが標的になりました。Binanceのある幹部はある日、出席したこともないZoomミーティングへの出席のお礼メッセージを受け取りました。彼はミーティングの内容にも関与していないうえ、面識のない人たちからのメールに困惑しました。何か起きたかというと、洗練されたハッカーたちは、公に公開されているこの幹部のインタビュー映像などを組み合わせて彼のディープフェイク動画を制作し、オンラインミーティング中にそれを流し、出席者を騙すことに成功していたのです。

このようにディープフェイク詐欺は、従来のソーシャルエンジニアリングのスキームを強化するもので、偽情報の拡散、脅迫、そしてスパイ活動に利用されます。

FBIの警告によりますと、人事担当者のなかにはすでに、ディープフェイクの技術に遭遇した人も多くいます。最近では特に多いリモートワークのポジションとなると、採用時の面接だけでなく、実際に仕事をするときも上司や同僚と対面で会うことがゼロの場合もあります。詐欺師たちは、ネットで見つけた他人の画像を使ってディープフェイクを作成し、盗んだ個人情報を使って人事担当を騙して採用され、入社することが可能です。このようにして詐欺師が企業のネットワークに潜り込むことで、雇用主のデータに不正アクセスしたり、企業のインフラにマルウェアを侵入させたりすることもできます。どのような企業も、この種の詐欺の危険にさらされる可能性があります。

上に述べた事例は、ディープフェイク詐欺が発生しうる最も明らかなシナリオです。しかし攻撃者は新しい手法を常にテストし生み出しています。

ディープフェイクの脅威は差し迫る脅威?

ディープフェイクは恐れるべき脅威なのでしょうか。実は怖がらなくても大丈夫です。高品質のディープフェイクを作るのはお金のかかるプロセスです。

まず、ディープフェイクを作成するには大量のデータが必要です。使用するデータセットが多様であればあるほど、より品質が高く私たちが騙されやすいディープフェイクの作品を作ることができます。静止画であれば、質の高いフェイクを作るのに必要なのは、元の写真だけでなく、それを異なる角度で撮影したもの、異なる明るさや照明で撮影したもの、さらに異なる被写体の表情で撮影したものです。また、偽のスナップショットは手動で微調整する必要があります(自動化はここではあまり役に立ちません)。

第二に、本当に見分けがつかない偽物を作ろうと思ったら、専門のソフトウェアと多くの計算能力が必要です。フリーソフトを見つけて自宅のPCでディープフェイクを作ろうとすると、誰もが偽物だと気づく低品質な仕上がりになります。

前述のBinanceの幹部がディープフェイク詐欺の被害に遭った事例は、極めて複雑なプロセスを踏んだことがわかります。詐欺師は、ディープフェイクを制作するだけでなく、目立つアーティファクトなしに高画質を維持しながら、オンラインで作成する必要がありました。確かに、リアルタイムでディープフェイクの動画ストリームを作成できるアプリケーションはありますが、それは事前にプログラムされた人物のデジタルクローンを作成するためのものであり、新しい偽のIDを作成するためのものではありません。そしてデフォルトの選択肢は通常、有名な俳優に限定されています。インターネット上に彼らの画像がたくさんあるからです。

フィッシングなど他のタイプの詐欺は通常、より安く誰にでもできるものですが、一方でディープフェイクを使った攻撃は現在でも高額で時間もかかります。そのためディープフェイク詐欺は、ごく少数のサイバー犯罪者(特に高品質のフェイクの場合)が使う手法です。

だからといって気を緩めてはいけません。技術は常に進化し続けていますし、数年以内に脅威レベルはハイリスクになるかもしれません。 stable diffusionなど最近流行している生成モデルを使って、ディープフェイクを作成する試みがすでに行われていることが確認されています。このようなモデルを使うと、顔を入れ替えるだけでなく、画像内のオブジェクトをほとんど好きなものに置き換えることもできます。

ディープフェイクから身を守る方法

ディープフェイク詐欺から、個人や組織を守る方法はあるのでしょうか?残念ながら特効薬はありませんが、詐欺に引っかからないよう、リスクを減らすことはできます。

他のソーシャル・エンジニアリングの手法と同様に、ディープフェイク詐欺は「人」を潜在的ターゲットとしています。人間的要因は情報セキュリティの弱点です。この新しい脅威について、従業員や同僚に対してトレーニングを実施し、ディープフェイクを見つけるにはどこを見ればよいか、いくつかの事例を取り上げて一緒に分析するのもよいでしょう。

ディープフェイクの見分けるポイントは下記のとおりです。

  • 不自然な目の動き
  • 不自然な表情や顔の動き
  • 不自然な髪や肌の色
  • 不自然な目やまゆ毛、鼻、口の配置
  • 感情の欠如
  • 過度に滑らかな顔
  • 二重まゆ毛

全体的なセキュリティプロセスを強化する良い機会でもあるでしょう。機密データの転送を伴うすべてのプロセスに多要素認証を導入するのも効果があります。また、異常なユーザー行動を検知して対応できる異常検知技術を導入するのも推奨します。

またディープフェイク詐欺は、その生成をサポートするのと同じツールである機械学習で対抗することができます。ツイッターやフェイスブックのような大企業は、すでにディープフェイクを検出できる独自のツールを開発していますが、残念ながら一般には提供されておらず利用できません。しかしこれは、サイバーセキュリティコミュニティが、ディープフェイクの脅威の深刻さを理解し、そういった脅威から防御する方法を考え、テストし始めていることを示しています。

ヒント