LoginSignup
7
2

More than 5 years have passed since last update.

Fastly のログを BigQuery に取り込んでみる

Last updated at Posted at 2017-02-25

Fastly のログを AWS Athena で分析するで AWS への取り込みをやってみたので、GCP でもと思い、BigQuery への取り込みについても書いてみます。

Google Cloud Storage(GCS) へのログ保存設定

Fastly のログを GCS に保存するために、GCS にバケット等の設定を行います。

Project の作成

はじめにログを保存する GCS を使うために、プロジェクトの作成を行います。GCP にログオン後、下記のメニューからプロジェクトの作成をします。名前は任意で問題ありません。

Screen_Shot_0029-02-24_at_00_20_40.png

GCS バケットの作成

Google Cloud Platform のメニューから Storage を選択し、Create bucket からバケットの作成を行います。ここで名前は fastly-log としておきます。
また、作成したバケットの配下に bigquery というフォルダを作っておきます。

Service Account の作成

作成した GCS にアクセスするためのアカウントを作成します。
Google Cloud Platform のメニューから IAM & Admin を選択し、Service Account から CREATE SERVICE ACCOUNT を選択すると下記の画面が開きます。

Screen_Shot_0029-02-25_at_13_40_41.png

必要な情報を入力しますが、ここでは Role を Project - Owner とし、名前や Service Account ID 任意で設定してください(実際には環境に応じて適切なロールを設定してください)。Furnish a new private key にチェックを入れ、Key type は JSON とします。これで CREATE すると 下記のような JSON 形式のファイルがダウンロードされます。

{
  "type": "service_account",
  "project_id": "<PJ NAME>",
  "private_key_id": "....",
  "private_key": "-----BEGIN PRIVATE KEY-----\nMII...\n-----END PRIVATE KEY-----\n",
  "client_email": "<SERVICE ACCOUNT ID>@<PJ NAME>.iam.gserviceaccount.com",
  "client_id": "...",
  "auth_uri": "https://accounts.google.com/o/oauth2/auth",
  "token_uri": "https://accounts.google.com/o/oauth2/token",
  "auth_provider_x509_cert_url": "https://www.googleapis.com/oauth2/v1/certs",
  "client_x509_cert_url": "https://www.googleapis.com/robot/v1/metadata/x509/<SERVICE ACCOUNT ID>%40<PJ NAME>.iam.gserviceaccount.com"
}

上記の private_key および client_email は Fastly ログ設定で利用します。

Fastly ログの設定

GCS へのログ保存設定

基本的なログ設定の流れはFastly S3 Log の設定を参照して下さい。ここでは GCS なので、作成時には GCS のアイコンを選択します。

Screen Shot 0029-02-25 at 14.17.13.png

表示される設定画面で各種設定を行います。

Screen_Shot_0029-02-25_at_15_51_36.png

Name: ログの名前を設定します。
Log Format: ログに出力する項目を設定します。フォーマットは Custom log formats を参照してください。ここでは BigQuery 取り込み用に csv の形式にするために , 区切りに
します。ここでは以下のように設定します。
%{%Y-%m-%d}t,%{%H-%M-%S.000}t,%h,%{req.request}V,%{req.http.host}V,%{req.url}V,%>s,%{resp.response}V,%{fastly_info.state}V,%{geoip.country_code}V,%O
Email: GCP の Service Account で設定した client_email を設定します。GCP の実際のアカウントで使う e-mail ではないので注意して下さい。
Bucket Name: GCS で設定したバケット名を設定します。ここでは fastly-log となります
Secret key: GCP の Service Account で取得した pricate_key を入力します。文字列に含まれる改行コード \n もそのまま入力して下さい
Period: ファイルのローテーション間隔です。 288000 秒(8時間)としています。

さらに Advanced Options をクリックすると、さらに設定項目が表示されるので、Path の設定をここで行います。

Path: バケット内にフォルダがある場合には設定します。末尾に"/"をつけるのを忘れないでください。ここでは bigquery/ とします
Gzip Level: 圧縮する場合にはこの数値を設定します。非圧縮がデフォルトで 0 となっています

以上の項目を入力し、「CREATE」をクリックします。

メッセージタイプの変更およびログの設定

これについてはFastly V2 ログへのアップグレードおよびメッセージタイプの変更と基本同じなのでそちらを参照してください。

これらが終了したら、設定を有効化するために「ACTIVATE」します。
以上で、GCS に Fastly ログが csv で出力されるようになります。

BigQuery への取り込み

ここまでの設定で GCS にログが出力されるようになりました。次に bq コマンドを用いて BigQuery に取り込みます。
はじめに SDK のインストールが必要です。手順については、ここでは割愛しますが、
https://cloud.google.com/sdk/docs/quickstarts
で紹介されているので、参照して下さい。

認証とプロジェクトの選択

bq コマンドを使うために、認証とプロジェクトの選択を行います。

$ gcloud auth login

によりブラウザ上で認証をします。その後

$ gcloud config set project <PROJECT>

によりプロジェクトの選択を行います。<PROJECT> には「Project の作成」で作成したプロジェクトの名前を入れます。
これで GCS 上のログを bq コマンドで操作する準備が整いました。

データセットおよびテーブルの作成

はじめにデータセットの作成、その後、そのデータセットにテーブルの作成を行います。
データセットを fastly、テーブルを fastly_log_table とします。

$ bq mk fastly

続けて

$ bq mk fastly.fastly_log_table

確認するには下記の ls を利用します。

$ bq ls
  datasetId  
 ----------- 
  fastly     
$ bq ls fastly
      tableId        Type   
 ------------------ -------  
  fastly_log_table   TABLE  

データのロード

テーブルが作成できたらデータのロードを行います。カラムの作成も含めて load で行うことが可能です。ここでは 2017年2月22日のファイルをまとめて取り込むために以下のコマンドを実行します。

$ bq load fastly.fastly_log_table gs://fastly-log/bigquery/2017-02-22T* date:string,time:string,clientip:string,method:string,host:string,url:string,status:string,message:string,infostate:string,country:string,size:integer

このコマンドをバッチで日付部分を変えながら実行すれば、自動的に作成されたデータを読み込むことが可能となります。

補足:クエリでのデータ確認

Fastly では fastly_info.state という変数で HIT/MISS/PASS などの情報を取得することができます。どの URL で MISS が多く、キャッシュヒット率をどうやって上げられるかなどは、この情報を解析することが有効です。
例えば、下記のようなクエリを使うと MISS の多い URL を抽出することが可能です。

bq query "select url,count(url) as count from fastly.fastly_log_table where infostate contains 'MISS' group by url order by count desc;"

+-------------+-------+
|     url     | count |
+-------------+-------+
| /           |   432 |
| /index.html |    25 |
+-------------+-------+
7
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
7
2