写真や動画の本物と偽物を見分ける新しい方法

本物の写真や動画と偽物を見分け、その出所を追跡する方法を説明します。

ここ1年半ほどの間に、私たちが目にするものが本物かどうか判断することが非常に難しくなりました。もちろん、Photoshopを使用した画像の加工は今に始まったことではありません。しかし、生成AIの爆発的な普及、進化により、偽造行為は未知のレベルに達しました。おそらく、最初に拡散された精巧なフェイク画像は、白いデザイナーズダウンジャケットを着たローマ法王の2023年の画像ですが、それ以来、人の目を欺くような高品質の画像が急増しました。そしてAIがさらに進化するにつれ、近い将来、より本物と見分けが全くつかないフェイク動画が増えることが予想されます。

2023年世界で話題になったディープフェイク画像の一つ:流行の白いダウンジャケットを着たローマ教皇

2023年世界で話題になったディープフェイク画像の一つ:流行の白いダウンジャケットを着たローマ教皇

フェイクニュースとその関連画像は既に厄介な問題となっていますが、この事態はただ悪化するばかりです。あるイベントの写真が別のイベントの写真であるかのように加工されたり、会ったこともない人々が同じ写真の中に合成されたりといったケースが発生するでしょう。

画像や動画を使用したなりすまし(スプーフィング)は、サイバーセキュリティに直結する問題となります。詐欺師は、何年も前から偽の画像や動画を使用して、被害者を騙して金銭を詐取してきました。助けてほしいと訴えかける悲しそうな子犬の写真や、偽の投資プラットフォームを宣伝する有名人の画像、さらにはあなたの知人のものだとされるクレジットカードの写真などを送ってくるかもしれません。詐欺師はまた、出会い系サイトやSNSで、なりすまし目的のプロフィールにAIが生成した画像を使用します。

最も巧妙な詐欺は、ディープフェイクの動画や音声に被害者の上司や親族を出演させて、詐欺師の言いなりにさせる手口を使用します。つい最近も、ある金融機関の従業員が騙されて、サイバー犯罪者に2500 万ドルを送金する事件が発生しました。被害者の「最高財務責任者(CFO)」と「同僚」とのビデオ通話が仕掛けとして使用されたのですが、もちろんすべてディープフェイクでした。

では、ディープフェイクや単純な偽物には、どう対応したらよいのでしょうか?どうすれば見破ることができるでしょうか?これは非常に複雑な問題ですが、画像がどこからきたのかを追跡することにより、その複雑さを段階的に緩和することは可能です。

待てよ、前に見たことがあるような?

前述したように「偽物」の種類は多種多様です。画像自体は偽物ではないものの、誤解を招くような方法で使用されている場合もあります。紛争地で撮影された本物の写真が、別の紛争で撮影されたものとして流用されていたり、映画の一場面がドキュメンタリー映像として紹介されていたりすることも考えられます。このような場合、画像自体の異常性を探してもあまり役に立ちませんが、ネットで画像検索をすることはできます。幸いなことに、Google逆画像検索TinEyeのようなツールもあり、まさにその手助けをしてくれます。

ある画像に疑問がある場合は、これらのツールのいずれかにアップロードして、表示される画像を確認してください。火事で家を失った家族や、保護施設の犬の群れ、その他の悲劇の犠牲者などの同じ写真が、何年もネット上で出回っていることに気づくかもしれません。ちなみに、偽の募金活動に関しては、画像そのもの以外にも気をつけるべき危険信号がいくつかあります。

保護施設から来た犬?いいえ、フォトストック(写真素材)のものです

保護施設から来た犬?いいえ、フォトストック(写真素材)のものです

Photoshopで加工?すぐにわかります。

Photoshopは以前から広く使用されてきたため、数学者、エンジニア、画像のエキスパートは、長い間、加工された画像を自動的に検知する方法に取り組んできました。よく使用される方法には、画像のメタデータ解析やエラーレベル解析(ELA)などがあります。これは、JPEG圧縮の不自然な点をチェックして、画像の変更部分を特定する技術です。Fake Image Detectorのような多くの一般的な画像解析ツールは、これらの手法を適用しています。

Fake Image Detectorは、ローマ教皇はおそらくイースターの日曜日にこのようなジャケットを着ていなかっただろうと判断

Fake Image Detectorは、ローマ教皇はおそらくイースターの日曜日にこのようなジャケットを着ていなかっただろうと判断

生成AIの出現により、生成されたコンテンツを検知するための新しいAIベースの手法も登場しましたが、どれも完璧ではありません。開発された技術のうち関連するものをいくつか挙げると、フェイスモーフィングの検知、AIが生成した画像の検知と生成に使用したAIモデルの判定、同じ目的のためのオープンAIモデルなどがあります。

これらすべてのアプローチにおける主な問題は、画像の出所について100%の確実性が得られず、画像が加工されていないことが保証できず、こうした加工の検証ができないということです。

WWWによる救いの手:コンテンツの出所の検証

画像が本物かどうかを一般ユーザーが簡単にチェックできる方法はあるのでしょうか。写真をクリックすると、次のように表示されることを想像してみてください。「ジョンが3月20日にiPhoneでこの写真を撮った」「アンが3月22日にエッジをトリミングして明るさを上げた」「ピーターが3月23日にこの画像を高圧縮で保存し直した」「変更は加えられていない」そして、すべての画像を加工、または偽造することが不可能だとしたらどうでしょう。夢のような話です。これこそまさに、Content Provenance and Authenticity(C2PA)が目指していることなのです。C2PAには、コンピューター、写真、メディア業界の大手企業が参加しています。キヤノン、ニコン、ソニー、Adobe、AWS、Microsoft、Google、Intel、BBC、AP通信、その他約100社のメンバーが参加しています。基本的には、画像の作成からオンライン公開に至るまで、ほぼすべての段階で誰しも関わっている可能性があるすべての企業です。

この連合によって開発されたC2PA規格は既に公開されており、バージョンも1.3に達しています。そして今、この規格を使用するために必要な業界内のパズルのピースが所定の位置に収まっていく様子が、私たちにも見え始めています。ニコンはC2PA対応カメラの製造を計画しており、BBCは検証済みの画像を掲載した最初の記事を既に公開しています。

BBCが語る、記事中の画像や動画の検証方法

BBCが語る、記事中の画像や動画の検証方法

考え方としては、責任あるメディアや大企業が検証済みの形式で画像を公開するようになれば、ユーザーがブラウザーで直接画像の出所をチェックできるようになるであろうということです。小さな「検証済み画像」ラベルが表示され、それをクリックすると大きなウィンドウがポップアップ表示されます。そこには、ソースとして使用された画像と、画像がブラウザーに表示されるまでの各段階で、誰がいつどのような編集を行ったかが表示されています。画像の中間バージョンもすべて見ることができます。

画像の作成と編集の履歴

画像の作成と編集の履歴

この手法はカメラだけでなく、他の画像作成方法にも有効です。Dall-EやMidjourneyなどのサービスでは、作成した画像にラベルを付けることもできます。

これは明らかにAdobe Photoshopで作成された画像

「Adobe Photoshop 24.2.0」で作成されたと書かれている

検証プロセスは、セキュアなHTTPS接続を確立するためのWebサーバー証明書に使用する保護と同様の公開鍵暗号方式に基づいています。この考え方は、特定の種類のカメラを持つJoe Bloggsであれ、Photoshopのライセンスを持つAngela Smithであれ、すべての画像作成者が信頼できる認証局(CA)からX.509証明書を取得する必要があるというものです。この証明書は、工場出荷時にカメラのハードウェアに直接組み込むこともできますし、ソフトウェア製品の場合はアクティベート時に発行することもできます。出所情報の追跡機能を使用して画像を処理する場合、各バージョンのファイルには、編集日時、編集場所、元のバージョンと編集後のバージョンのサムネイルなど、大量の追加情報が含まれます。これらの情報はすべて、画像の作者または編集者によってデジタル署名されます。この方法により、検証された画像ファイルには、すべての旧バージョンのチェーンが存在し、それぞれに編集者の署名が付与されていることになります。

AI生成コンテンツが含まれる動画

「AI生成コンテンツが含まれる」と表示される

この仕様の作成者は、プライバシー機能にも配慮しました。時々、ジャーナリストが情報源を明らかにできないこともあります。そうした場合のために、「再編集」と呼ばれる特殊なタイプの編集機能があります。これにより、画像作成者に関する情報の一部をゼロに置き換え、その変更に自分の証明書で署名することができるようになります。

C2PAの機能を紹介するために、テスト用の画像と動画のコレクションが作成されています。これらの画像の認証情報、作成履歴、編集履歴をチェックするには、Content CredentialsのWebサイトをご覧ください。

Content CredentialsのWebサイトでは、C2PA画像の詳細な背景を公開している

Content CredentialsのWebサイトでは、C2PA画像の詳細な背景を公開している

技術の限界

残念ながら、画像のデジタル署名が一夜にして偽物の問題を解決することはありません。なにしろ、誰にも署名されておらず、どこにも公開されていない画像が既に何十億枚もネット上に存在しているのです。しかし、多くの信頼できる情報源が署名された画像のみを公開するようになるにつれ、デジタル署名のない写真は疑いの目で見られるようになるでしょう。タイムスタンプや位置情報のある本物の写真や動画は、別物として偽装することはほとんど不可能になり、AIが生成したコンテンツはより簡単に見破られるようになることでしょう。

ヒント