ChatGPT フェイクチェッカー
概要
SNSを利用した詐欺では、時にYandexやFaceCheckIDなどの画像検索をかけてもヒットしない顔写真が使われることもあります。詐欺被害者が詐欺師だけに提供したプライベートな画像や、強力なプライバシー設定をしてFaceCheckIDで検索してもヒットしない画像などは、検索では出てこないことが多いです。この他、AIに生成させた写真画像であれば、検索で引っかからない可能性もあります。
フェイクチェッカーGPTは、画像がAI生成やディープフェイクである可能性を分析するツールです。AIが作成した画像には特有の特徴があり、非常に精巧に作られたものでも一定の傾向が見られます。ただし、このツールは100%の判定を保証するものではなく、可能な限り多くの証拠を提供することを目的としています。
使用環境
フェイクチェッカーGPTは、さまざまな環境で使用可能です。
・オンラインプラットフォーム:ブラウザ上で動作するため、ソフトウェアのインストール不要。
・高度な画像解析の知識がなくても使える。
・無料版ChatGPTでも使えます。
・PC、スマートフォン、タブレットなど多様なデバイスで利用可能。
機能
フェイクチェッカーには、以下の機能があります。
・画像解析:AI生成画像やディープフェイクの特徴を検出。
・メタデータ解析:画像の撮影情報や編集履歴をチェック。
・詳細レポート生成:検出結果をレポート形式で提供し、判断材料として利用可能。
使い方
フェイクチェッカーの利用方法はシンプルです。
画像をアップロード:分析したい画像を選択。
解析開始:フェイクチェッカーが視覚的特徴やメタデータを解析。
結果確認:AI生成の可能性、編集履歴、不自然な特徴を表示。
活用例
NPO活動がSNS詐欺被害防止のための注意喚起などですので、基本的にはSNS型詐欺で使われている写真がAI生成やAIによる部分的なデフォルメ化などによるものかどうかをチェックするための目的で作りましたが、それ以外にもフェイク写真の判定など、様々なシーンで活用できると思います。たとえば報道写真を調べるなど。
フェイクチェッカーGPTは、完璧な判定を保証するものではありませんが、より信頼できる情報を得るための強力なツールです。判定結果は絶対的なものではないので、参考情報としてご活用ください。
使用例
GoogleのImageFXを使って生成したテスト用のAI写真を分析させると以下のようになります。(日比谷公園を歩く20代後半の日本人女性の写真) DALL-Eで生成するともっとAIっぽさが出て絶対に本物の写真には見えないのですが、このImageFXの写真はよりリアリティを出せるようです。
CHAT GPTの回答:
画像を分析し、AI生成やフェイクの可能性を評価します。まず、以下の点を確認します。
1.視覚的な特徴
・不自然なぼかしや対称性
・皮膚や髪の毛の異常
・文字やロゴの歪み(バッグのロゴなど)2.メタデータの確認
・画像にEXIFデータが含まれているか
・撮影デバイス情報の有無3. エラー・レベル・アナリシス(ELA)
・画像の異常な圧縮率の違いを確認これらをチェックし、AI生成画像かどうかを判断します。分析を行いますので、少々お待ちください。
メタデータを取得するための piexif モジュールが使用できないため、別の方法で分析を進めます。次に、視覚的な特徴や画像の圧縮率の違いを検出するエラー・レベル・アナリシス(ELA)を行います。
変数 image_paths がリセットされたため、再定義してエラー・レベル・アナリシス(ELA)を実行します。
エラー・レベル・アナリシス(ELA)の結果
ELA画像(右列)を見ると、特に顔やバッグ部分に明るい部分が見られます。これは、異なる圧縮率の変化があることを示し、AI生成画像である可能性を示唆します。AI生成画像の特徴と分析結果
1.一貫性のある質感
本物の写真では、異なる素材(髪、肌、衣服、バッグ)で圧縮の影響が異なります。しかし、ELA画像では均一な圧縮アーティファクトが見られず、AI生成の特徴に合致しています。2.不自然なエッジ
顔の輪郭やバッグのロゴ周辺に明るい部分が強調されており、後処理された可能性があります。3.ロゴの再現
バッグの模様が非常にクリアで、実際の写真では通常見られるはずの若干のブレや歪みが少ない点もAI生成の兆候です。結論
この画像はAI生成の可能性が高いです。特に顔、バッグ、衣服の質感やエッジの処理が人工的であることが分かります。
この結果から、写真が生成AIによって作られたものである可能性が高いと判断できます。
この分析結果の中で2回エラーが出ています。これは異常というわけではなく、AI生成の画像にはメタデータという画像に記録されているデータがあり、Exif(エグジフ)という形式でJPEGなどのファイルに格納されています。たとえば、使用したカメラの設定、撮影日時、撮影場所(GPS情報)、撮影機器のメーカー名やモデル名、画像の解像度といった情報が含まれます。このデータがないため、一度ストップして、ELAに移動しています。
ここで出てきたELAとは? 少しだけ解説:(ChatGPTに説明させました)
ELAのイメージ分析とは?
ELA(Error Level Analysis、誤差レベル分析)は、デジタル画像の改ざんを検出する手法の一つです。画像の圧縮特性を分析し、編集された可能性がある部分を特定します。JPEG画像は再圧縮されると均一な圧縮ノイズを持つのに対し、編集された部分は異なるノイズパターンを示すことがあります。ELAはこの違いを可視化することで、画像の改ざんの可能性を示します。
ELAのイメージ分析をたとえ話で説明(@umino_chibiさんが作成した「たとえ話つくるくん」で生成)
ELAを理解するのは少し難しいですが、簡単なたとえ話をしてみましょう。
「新しいパズルと古いピース」
想像してみてください。あなたは友達から1000ピースのジグソーパズルを借りました。そのパズルは長年使われていて、ピースの角が少し丸くなったり、色がわずかにくすんでいたりします。ところが、パズルを完成させたときに、明らかに新しいピースが混じっていることに気付きました。そのピースだけ色が鮮やかで、角がシャープで、他のピースと比べて明らかに「異質」です。
この「新しいピース」を見つける方法がELAに似ています。画像全体が「古いパズルのピース」だとすると、編集された部分は「新しいピース」のように目立ちます。ELAは、この違いを強調し、どの部分が新しく追加・編集されたかを見つける手助けをするのです。
このように、ELAは「古いパズルに混じった新しいピースを見つけるようなもの」と考えると、専門知識がない人でも直感的に理解しやすくなります!
見た目は自然に見える画像をAIがどうやって見破るのか?
AIで生成・加工された画像は、見た目では自然に見えても、デジタル的にはいくつかの特徴が現れます。例えば:
ピクセルの並びの不規則性
自然な写真は、カメラのセンサーの特性により、ピクセルごとのノイズが均一に分布する。
AI画像は、局所的に異なるパターン(例えば不自然な滑らかさや繰り返し)を持つことがある。
圧縮アーティファクトの違い
カメラで撮った画像はJPEGなどの圧縮過程で均一な劣化を受けるが、AI生成画像は部分的に異なる劣化パターンを持つ。
フーリエ変換やエラー分析(ELA)での異常
AI生成の画像は、自然画像には見られない特定の周波数成分を持っているため、解析すると不自然な部分が検出できる。
たとえ話:「パッチワークの毛布」
あなたは「手作りの毛布(写真)」を持っているとします。この毛布は長年使われていて、全体的に少し色あせ、布の繊維も均等に摩耗しています。ある日、この毛布の一部が破れたので、新しい布を縫い付けました。しかし、その新しい布は:
明らかに他の部分より鮮やかな色(ピクセルの違い)
生地の質感が異なる(圧縮の違い)
よく見ると縫い目が目立つ(フーリエ変換などの解析で発覚)
一見すると気づかないかもしれませんが、触ったりよく観察すると「この部分だけ何か違うぞ?」と分かります。これがAI画像の分析で「加工された部分」が判るのと同じです!
免責事項
精巧なAI画像の判定というのは目視では非常に難しく、明らかに怪しいものは的確に言判定してくれていますが、ChatGPTが間違った判定をすることはあり得ますので、その点はご理解ください。ChatGPTが誤った判断をしてその結果詐欺被害にあったとしても、当方では一切責任を負いません。基本はSNSなどで知らない人にアプローチされたらまず疑ってみることです。