0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

ElasticとTinesの自動SIEM調査による誤検知削減

Posted at

この記事は Elastic 公式ブログ
Reducing false positives with automated SIEM investigations from Elastic and Tines
を日本語訳にしたものです。


セキュリティオペレーションセンター(SOC)が抱えるSIEM管理の大きな課題の1つに、膨大な誤検知によるアナリストの疲弊や、可視性の欠如が挙げられます。加えて、SaaSのアクセス トークンが侵害されたことを検知しようとすると、誤検知がさらに増えやすいという悩ましい問題もあります。

ElasticのInfoSecチームでは、Tinesのようなツールを活用してSIEMアラートの初動調査を自動化し、こうした課題に対処しています。本記事では、ワークフローを効率化し、誤検知を削減し、本質的に重要な脅威に集中できるようにした取り組みを紹介します。

SIEMアラートの初動調査を自動化する

先にこちらのブログ記事で、Elastic InfoSecチームがUEBA (User and Entity Behavior Analytics)を活用したルールパッケージを作成した経緯を紹介しました。しかし、対応するデータソースを増やしていく中で、月に1回程度しか発生しないAPIトークンの動作や、スキャナーによるアクセスなど「異常だが実際には問題ない動き」による誤検知が多発し、SOCアナリストが処理しきれない状況になったのです。

「誤検知が多いルールをあえて作るか、それとも検知を入れない(可視性のギャップを許容する)か」というジレンマに直面した私たちは、新しいアプローチを考えました。それは、アラートが検知された際に最初の調査を自動化し、既知の誤検知を即座にクローズ、未知のものだけをエスカレーションする仕組みです。

実際、SaaSプロバイダやUEBAの多くのアラートは、アクティビティが「管理対象デバイス」由来の場合は問題ない(=誤検知)と判断できます。たとえばアラートで source.ip が得られたら、Elasticsearch内の他のインデックスで source.ip を検索し、社内で管理されているワークステーション等のIPアドレスに該当すればクローズ、といった手順です。

例としてAWS Secret Keyに関するUEBAアラートがあった場合は、以下のようなElasticsearchクエリを自動的に実行します。

  • プロキシログに、source.ip からElastic AgentがFleet Serverへ正常に接続している記録はあるか?
  • source.ip が自社管理ゾーン(AWS/GCP/Azureなどのネットワーク帯域)か?
  • source.ip がOktaやTerraformなど正規のサードパーティアプリケーションのものか?
  • 過去2時間以内に、その source.ip からFIDO2によるSSOログインが成功しているか?

1つでも該当する条件があれば、そのアクティビティは「正規の操作」とみなしてアラートをクローズします。すべて該当しなければ、SOCアナリストにエスカレーションします。これらのクエリはElasticsearchの_search APISignals APIを利用して、自動で検索・クローズ・タグ付けなどを実行できます。

Elastic SecurityのAlert Actions機能を使えば、SIEM検知をSOAR(Security Orchestration, Automation, and Response)製品に転送し、上記の自動調査プロセスを実行させることが可能です。調査結果によって自動クローズかエスカレーションかを振り分けられます。

この自動トリアージによって、アラート量を劇的に増やしてもアナリストが疲弊することなく、より細かい検知を導入できます。実際にElastic社内では、一日あたり3,000件以上のアラートを無人でトリアージしクローズしています。人力なら1件15分程度かかるところですが、これに相当するには94名以上のフルタイムアナリストが必要になってしまいます。以下のグラフは、直近30日間のアラート数の一例です。

30 days of alerts

本記事では、Elasticが実際に使っているTinesを例に、自動化の構築手順を紹介します。カスタムスクリプトで同等のフローを構築することもできますが、Tinesを使うことで開発者を専属で用意しなくても、高度なSOARワークフローをGUIで簡単に組み立てられます。


アラートを任意のSOARに送信する

最初のステップは、Elastic Securityが検知したアラート情報をSOARに送ることです。これにはElastic SecurityのAlert Actions機能を利用します。

検知ルールを設定するとき、ルールアクション(Rule Action)としてコネクタを追加できます。

Rule action connector selection view

Elasticでは、Tinesコネクタを利用して簡単にアラートをTinesに送っていますが、汎用的にはWebhookコネクタを使い、アラート内容をndjson形式でまとめて送信する方法もあります。Webhookコネクタを使う場合は、POST メソッドと application/x-ndjson; charset=utf-8 を指定し、下記のようにMustache構文でアラート全体をndjsonにして渡します。

{{#context.alerts}}
{{{json}}}
{{/context.alerts}}

タグを使った自動化ルーティング

自動化フローを構築する際、当初は個々のアラートに対して専用のパスを用意していたのですが、すぐにスケールしなくなりました。そこで採用したのが「ルールに付与するタグ」でルーティングを分ける方法です。

アラート全体がJSONでSOARへ送られる際、signal.rule.tags フィールドにタグ情報も含まれます。私たちは “Triage:{オプション}” という命名でタグを付け、アラートを該当するトリアージパスへ振り分けるようにしました。1つのルールに複数タグを付けることも可能です。

Triage tags list

以下はElastic内部で主に使っているタグ例です。

  • Triage: All
    Asset(自社管理IPかどうか)、PMFA(フィッシング耐性MFAの利用)、Workstation(社内ワークステーション)など、複数の自動トリアージパスをすべて実行。いずれかに当てはまれば自動クローズ、なければエスカレーション。
  • Triage: Asset
    自社管理しているAsset Database(Elasticを使ったアセット管理例)、内部ネットワーク帯域、CI/CDシステム、OktaやTinesなどサードパーティの公開IPなどを参照し、source.ip が一致すればクローズ。
  • Triage: PMFA
    Oktaインテグレーションで取得したログを参照し、FIDO2等の強力なMFAで認証済みかどうかを確認。
  • Triage: Workstation
    Elastic Defendなどのエージェントがプロキシを通じてFleet Serverに定期的に接続するログを探し、source.ip が社内ワークステーションのものか確認。
  • Triage: New Employee
    新入社員向けのSlack初期設定などで誤検知が多いケースを想定し、Asset Databaseに登録された社員リストをチェック。
  • Triage: 1h / Triage: 24h
    一定時間(1時間または24時間)待ってから調査を開始するタグ。データベース更新が日次のものなどで有効。
  • Triage: Custom
    サードパーティに提供している高権限APIキーの使用元IPをチェックするといったカスタム処理に利用。

自動化の構成要素(Tinesを例に)

JSON形式のアラートを受け取った後は、各トリアージパスを実行し、クローズあるいはSlackやPagerDutyなどへのエスカレーションを行います。Tinesでは以下7種類のアクションを組み合わせて“ストーリー”を構築します。

  1. Webhook action: Webhookからイベントを受信する。
  2. Send Email action: メール送信。
  3. Receive Email action: 新規メール受信をトリガにイベントを発火。
  4. Event Transformation action: 受信イベントを整形。非常に柔軟。
  5. HTTP Request action: 各種HTTPリクエストを送信。
  6. Trigger action: 受信データに対して条件分岐(If-Then)。
  7. Send to Story action: 別ストーリーを呼び出して戻り値を受け取る。

下図は簡略化した自動トリアージの一例です。

Tines triage story

基本的な流れは、

  1. Webhook actionでElasticからのndjsonデータを受け取る
  2. Event Transformation actionでndjsonをJSONオブジェクトに変換
  3. Trigger actionでタグなどを見て分岐
  4. HTTP Request actionでElasticsearchの_search APIを叩き、ヒット数に応じてクローズか次のチェックへ
  5. すべてのチェックを通過しても怪しい場合はSlack通知やPagerDuty連携

Elasticsearchクエリ例

たとえば「過去4時間の間に source.ip でヒットするドキュメントが1件でもあれば“既知のIP”とみなす」というクエリは以下のようになります。返ってきた hits.total.value が0より大きければ誤検知と判断できます。

{
  "size": 1,
  "query": {
    "bool": {
      "must": [],
      "filter": [
        {
          "bool": {
            "should": [
              {
                "match_phrase": {
                  "source.ip": "<<extract_source_ip.source_ip>>"
                }
              }
            ]
          }
        },
        {
          "range": {
            "@timestamp": {
              "format": "strict_date_optional_time",
              "gte": "now-4h",
              "lte": "now"
            }
          }
        }
      ],
      "should": [],
      "must_not": []
    }
  }
}

Trigger actionで、クエリ結果を見て「hits.total.value > 0 ならクローズ」と条件分岐します。

管理対象ワークステーションの判定例

Elasticはリモートワーク文化が進んでおり、社員が世界中どこからでもログインするため、IPアドレスでの固定は困難です。そこで、Elastic DefendやAuditbeatの接続ログをNginx経由で収集し、常にエージェントがFleet Serverにアクセスしていれば「社内管理デバイス」と判断できるようにしています。

Workstation story branch

クローズ処理用のSend to Story

チェックに合致したら、Signals APIを用いてアラートをクローズし、タグを付ける「クローズ処理」を行いますが、私たちはこれを個別のストーリー(サブフロー)に分けています。Send to StoryでサブフローにアラートIDなどを渡し、サブフロー内でクローズやタグ付けを一括で実行。二重クローズ対策やAPI呼び出しのスロットリングも併せて管理します。

Close alert Send to Story

アラートをSlackにエスカレーション

同時並行でいくつかのチェックを実行した後、少し待機(例: 5分)してまだアラートが「オープン」の状態なら、Slack通知でアナリストにエスカレーションを行うフローを設けています。

Escalating open alerts to Slack

さらに高度な要件があれば、このあとPagerDuty通知を追加したり、Elastic SecurityのCases機能と連携してケース管理を行うことも可能です。

Escalating to PagerDuty


運用上の課題

もちろん、このような自動化にも課題はあります。例えば、インサイダー脅威やすでに社内ワークステーションが侵害されていた場合、アラートが「管理対象IP」として自動的にクローズされてしまい得る、という問題です。ただし、

  1. 自動化をしないと処理しきれない大量検知を可能にするメリットは非常に大きい
  2. ワークステーションなどは高い監視・検知ルールを敷いているため、そこを踏み台とする攻撃はむしろ検知の可能性が高まる

という理由から、一定の妥協をしても導入する価値は大いにあります。

もう1つは、いわゆる「シャドーIT」の問題です。ルールを作る際に「既知の良性IP」と定義していないアプリケーションやサードパーティのスキャンツールなどが勝手に導入されていると、正規操作でも毎回アラートを出してしまいます。そうしたIPを特定して例外に追加する作業は骨が折れますが、同時にシャドーITを発見・排除できるメリットもあります。


自動化と相性の良い検知例

もともとは特定の1つのルールで始まった自動化でしたが、運用するうちに多くのルールが自動化に適用可能だとわかりました。「このアラートが発火したとして、IPアドレスが社内管理や既知のものならアナリストはクローズするだろうか?」という観点で考えると、ほとんどのサードパーティSaaSやUEBA系のルールが該当します。

Elastic内部で自動トリアージを適用している例をいくつか挙げると、以下のような検知があります(一部は既存ルールにタグを追加し、自動化対応にしています)。


まとめ:より高いレベルの保護と運用効率を実現

本記事では、Elastic InfoSecチームがTinesとElastic Securityを組み合わせて、アラートの初動調査を自動化し、膨大な誤検知を効率的にクローズしながら、より詳細な検知を行っている例を紹介しました。結果として、私たちは月間5万件以上のアラートを、アナリストの手を煩わすことなく数秒で精査しクローズできています。これはアナリストのみで対処するのは実質不可能な量であり、こうした自動化なしには実現できなかった高度な保護レベルを得ています。

もしご興味があれば、Elastic Cloud の14日間無料トライアルと、無料のTines Community Edition を組み合わせることで、同様のワークフローをすぐにお試しいただけます。

注記
本記事で言及されている機能のリリースや時期は、Elasticの独自裁量により変更・延期・中止される場合があります。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?