記事の目的
AIとセキュリティというテーマを記述する際、AI for Security(セキュリティのためのAI活用)と Security for AI(AIを活用するためのセキュリティ)に分けて話される機会が増えてきました。
この記事では、AI for Security (セキュリティのためのAI活用)のこれまでのトレンドから、次の予測まで、セキュリティ業界の中で『AI』に含まれるテクノロジーがどのように利用されてきたか簡単に解説します。
易しく理解できるコラム的な記事を目指します。
10年前から始まったAI for Security
セキュリティは非常に幅広い分野をカバーします。Check Point製品をとって国内でご利用いただいている製品を上げても以下のような製品があります。
次世代ファイアウォール/UTM、WAF/APIセキュリティ、パブリッククラウド向けファイアウォール、SASE/ファイアウォールaaS、EDR、ブラウザセキュリティ、モバイルセキュリティ、Microsoft 365/Google Workspaceセキュリティ、脅威インテリジェンスやASM、SIEMや自動化のためのSOARなど
多様な実行ポイントで稼働するセキュリティ
ITインフラや組織のデータが分散して配置される中で、セキュリティ製品も拡充され今や多くの組織では、10や20のセキュリティ製品を管理運用しているケースも増えてきています。
セキュリティベンダーでは、セキュリティの実行ポイントにおける個々の製品を開発するだけでなく、マルウェアや脆弱性の研究組織を拡充し、検知手法や防止手法の開発を行い、それぞれの実行ポイントに実装しています。
約10年前頃から、アプリケーション/マルウェアや操作ログ等を学習して、未知の脅威への対策を行う「機械学習/ML」の採用が始まったといえます。
Check Point におけるこれまでのAI for Security
Check Pointにおける検知や防止を目的としたML/DLの活用は、ThreatCloud AI と呼ばれる脅威インテリジェンスの中にエンジンが含まれており、各実行ポイントと協働しています。
2025年1月に開催した 年次イベント CPX 2025 の中では、95のエンジンの内、55がAIエンジン(MLまたはDL)で、40が通常エンジンという数を報告しています。通常エンジンとは、基本的な脅威情報であるハッシュやURL、Domain、IPアドレスなどが含まれます。

Check Point ブログ過去記事:
-
ThreatCloud Graph Engine他 (2024年11月の記事)
・脅威を多次元的に評価を行う - ThreatCloud Graphエンジン
・自然言語処理(NLP)を使用した新しいサイトのURL自動分類
・悪意のあるサイトと無害なサイトのトラフィックパターンを区別するC2およびMDN通信の防止エンジン
・ディープラーニングを利用してブランドなりすましフィッシングキャンペーンの防止 -
GitHub Abuse Engine (2025年8月13日記事)
ThreatCloud AIの一部として開発されたGitHub Abuse Engineは、GitHub上の悪意ある活動を検出・軽減するために設計された最先端エンジンです。従来のコンテンツ分析手法とは異なり、AIとコード分析を使用して行動パターンや異常を分析するため、誤検知が非常に少ないという利点があります。
年次イベントのCPXの開発者セッションの中では、これらML/DLエンジンが、定期的に更新、精度の向上が行われ、一部ではMLからDLへのリプレイスが実施されるなど、セッションで話を聞く機会もありました。
現在の AI for Security
2022年11月にChatGPTが公表されて以来、大規模言語モデル(LLM)がセキュリティに対してどのように採用されていくか?が関心の高い分野だと思います。SOC(セキュリティ運用センター)の中で、どのようにAIを活用するのか?その文脈で、セキュリティ領域に取り込まれていくことは間違いない状況だと思います。
米国で8月に実施された Blackhat USAにおいても、Security for AI、AI for Security の分野が数多く発表されていたようで、SIEMやXDRといった領域には、コンテキストの理解が必要だったりすることから生成AIは大活躍が期待されています。
特に、セキュリティ人材不足が叫ばれる中で、運用担当者のアシスタントとなる分野では、既に実用的に利用可能なテクノロジーは存在してきていると思います。
Check Pointにおける生成AIへの取り組み
2024年1月にInfinity AI Copilotが発表され、自社のサイバーセキュリティ製品を横断的に管理する Infinity XDRや、ファイアウォール管理のための Smart-1、Harmony Endpointなど幾つかの製品で、製品に特化したチャット形式のAIボットが提供されてきている他、Infinity Portal内においても、インシデントの説明に、生成AIが生成したテキストをダッシュボード上に表示するなど、生成AIの活用は日に日に進化しています。
2025年5月には、Check Point MCP Servers を発表しています。MCP(モデルコンテキストプロトコル)を利用することでポリシー分析、複雑なSDK統合、エラーが発生し易いプロセスを、即時構造化したデータとして扱い、リアルタイムの洞察を実施できるようになります。
現時点でClaudeを利用したMCP Server経由での操作は過渡期と言える状況ですし、最終的な解決策の一つになるかも知れません。Check Point MCP Serverは現在オープンソースとして公開されています。(サイト)
セキュリティ研究環境
既に生成AIを利用したマルウェア解析に対抗して回避行動をとるマルウェアが発見されています。MCP自体はセキュリティ研究の場では既にマルウェアのソース解析、リバースエンジニアリングを支援する際に利用するようですが、プロンプトインジェクションを利用して検知を回避しようとしていました。(In the Wild: Malware Prototype with Embedded Prompt Injection)
マルウェア解析のための AI for Security という点で生成AIが利用されていることも分かる反面で、既に回避策を開発し始めている脅威アクターがいることも分かる記事です。
将来(これから)
次のスライドは、2025年2月に行われたCPXのストラテジーセッションの1枚です。
そう、自動車における自動運転に利用される レベル分け と同様の記載です。
Check Point製品はレベル1「AIアシスト」や、レベル2「AI拡張」までの開発を進めているという話でした。自動車で言えばAIアシストは、車線維持機能や自動ブレーキの類であり、AI拡張は部分的な自動運転と言えます。
ネットワーク環境のゼロトラストの文脈で言えば、古くなったアクセスポリシーを停止したり、新しいシステムやユーザーの接続を洞察をもって新しいポリシー作り支援する機能を提供します。ハイブリッドクラウドやSASE、SaaSの利用が進む中で、ゼロトラスト環境を維持することがさらに複雑化する中で、AIアシストやAI拡張は欠かせない技術となってきています。
自律的な運用
次のステージである、レベル2とレベル3の間には、大きな転換が存在します。
自動車で例えれば、運転の主体が人間からシステム/車体になるという点です。
ゼロトラストの文脈で言えば、新しいデバイスやユーザーが追加されたり、新しいシステムにアクセスする際でも、人が関与することなく、最低限のアクセスに制限しつつ、新しくポリシーを生成を行うことを自動化/自律化する段階です。
現在はゼロトラスト環境の構築のためにコンサルタントを採用しつつ、企業のDX化とハイブリッドクラウド、ハイブリッドワークスペースを維持する中で、ゼロトラストの維持にも人手を有する状況が起こっています。
現在の、AI Copilot や MCP Serverを介した運用が、自動運転レベルの レベル1/レベル2 だったことに対して、常にセキュリティ態勢・ゼロトラストを維持しつつ、運用者が関与しなくてもリスクを最低限にし、万が一インシデントが発生してもいち早く初動や修復を実行する将来がそろそろ見えて来るように思います。
さいごに
Check Point は年初にCP Engageのイベントを通じて、Visionや戦略について発表をします。
2026年度もどのような発表が行われるか、ご期待ください。中の私も期待しています。
また、 Security for AI は、明日以降のコンテンツで掲載されます。楽しみです。
サイバーセキュリティ by Check Point
https://qiita.com/advent-calendar/2025/cp_security
