60
50

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

Google Cloud Platformの支払い情報をBigQueryにエクスポートしてSlackに飛ばすまで

Last updated at Posted at 2019-02-14

#概要

スクリプトを使って,支払い情報の取得設定や通知できるようにするためにはどうすれば良いかを説明します。
Google Cloud Platform(以下GCP)の支払い情報をBigQueryにエクスポートして,GCFで集計してSlackに通知するスクリプトを作りました.
下のような通知が日時でSlackに届きます.かっこの中身は前日の金額との差(昨日より増えてるか減ってるか)です.
オプション設定によりプロジェクトの内訳も表示できるようになります。(一番下を参照)

slack通知(縮小版).png

デプロイコマンドも同封しているので、slack api tokenとBigQueryのエクスポート設定をすれば任意のチャネルに通知を飛ばせるようにできます。
スクリプトはこちら(Github)

##使用するもの
・BigQuery
・Google Scheduler
・Google Cloud Functions ( Node.js v6 )
・Slack API

##全体像
GCP側からBigQueryにデータをエクスポートしてもらいます。(設定は後述)
そのデータをとってきてSlackに流します。

Qiita用Billing全体図.png

#GCP支払い情報取得設定
支払い情報はWebAPIなどがあってそこからリアルタイムで取得できるものだと思っておりましたが,取り方はBigQueryにエクスポートするかファイル(JSON or CSV)をGoogle Cloud Storageにエクスポートするかしかありませんでした.

##違いは?
出力されるデータ形式や出力されるタイミングが違うので,そこらへんの特徴を以下にまとめました.
###ファイルにエクスポート

  • 出力タイミングは1日に一回,夜に出力されることが多かった.時間は指定できない.不規則.
  • 一回の出力でファイルが一つ生成される。(毎日ひとつファイルが増える)
  • 形式はCSVかJSONを選べる
  • 一つのファイルの出力範囲は3日前から前日まで利用した分くらいの請求情報が出力される.(例:17日export分には14日から16日の請求情報)
  • 利用しているサービスが少ないうちはこちらでも良さそう.しかし,量が多くなったり,数日にわたって請求情報を分析したい場合には不向き

###BigQueryにエクスポート

  • 出力タイミングは稼働しているサービスにより不規則に出力され続ける.
  • 請求情報はテーブルに蓄積される.最新ので5-6時間前に利用した請求情報が取得できる.
  • その日に使った分の請求情報が翌日の夜に出力されたりと不規則 → その日に使った分の料金を正確に出すのは難しそう..

##設定(BigQueryの設定の場合)

  • 今回は今月分の合計請求額を計算するのに適したBigQueryを利用することにしました。以下にその設定を示します。
  • GCPのコンソールでサイドメニューを開いてお支払いを押す
exp01.PNG
  • 課金データのエクスポートを押す
exp02.PNG
  • 事前にエクスポートを有効に、エクスポート先を指定します。
exp03.PNG
  • この時にBigQueryのDBを、ファイルエクスポートの場合はGoogle Cloud Storageにbucketを生成しておく必要があります。

#BigQueryとSlackAPIを利用するための準備
今回用意したスクリプトはBigQueryとSlackAPIを用いるので、環境変数としてSlack API Token, 通知するチャネル名、BigQueryにSQLのリクエストするときに取得先テーブル名が必要になります。
それぞれの準備の仕方について説明します。
##BigQueryの名前確認
テーブル名はプロジェクト名.データベース名.テーブル名で指定するとリクエストを飛ばすことができるようです。
(BigQueryでSQLが飛ばせればそれでよいです。)
プロジェクト名、データベース名、テーブル名をそれぞれ確認してください。
確認は、BigQueryのページでリソースを確認することができます。

bigquery.PNG

##Google Cloud Functionsにデプロイ
デプロイする際に環境変数を設定します.設定が必要なのは以下

  • Slackの API token
  • 通知するチャネル名
  • BigQueryのリクエスト先
  • プロジェクトの内訳を表示するかどうか(1にするとプロジェクトの内訳も表示するようになります。)
    SlackのAPIキー取得などはこちらなどが大変わかりやすかったです.
    ただしスコープはSend messages as sample ではなく, send messages as [bot name](chat:write:bot) です.
    取得したらば,deploy.shにそれぞれ記入してください.
    [記入した例]
    以下のようなコマンドでデプロイできます.(リポジトリにdeploy.shが同封されておりますので,ご利用ください)
gcloud beta functions deploy notifySlack \
--set-env-vars=\
"SLACK_API_TOKEN"="your-api-token",\
"SLACK_CHANNEL_NAME"="your-channel-name",\
"TABLE_NAME"="your-project-name.your-db-name.your-table-name" \
"FULL_BURST"="0 or 1" \
--project=your-project-name \
--trigger-http

※GCPのコンソールから関数を作って直接コードを書くこともできます.

##環境変数などの確認
デプロイすると関数が追加されていることがコンソールから確認できます.

gcf01.PNG

関数名をクリックして編集ボタンを押します。

gcf02.PNG

下のほうにスクロールしてその他を押します。

gcf03.PNG

環境変数もちゃんとセットされていますね.

gcf04.PNG

テストで実行してちゃんと通知が来るかどうか確認して見ましょう.

#Google Schedulerの設定

  • 定期実行する設定です.左のサイドバーのツール群にあるCloud Schedulerを開いてください
cloud_scheduler.PNG
  • cronの設定がよくわからない方はこれなんかを使って設定すると良いですね.
    勝手に実行されるようになるはずです.ジョブを作成を押します
create job.PNG
  • 今回は毎日夜の0時15分に実行することにしました.URLはGoogle Cloud Functionsのトリガータブに記載されています。
scheduler_setting_ex.PNG

#確認
ちゃんと実行されていました.(内訳も表示した場合)

slackに通知が届いている様子.PNG

#まとめ

Cloud Functionsを使って請求情報をSlackに出力することができるようになりました。
この記事を作るにあたってファイルに出力させるパターンでもスクリプトの作成を試みましたが、集計をJS側でやらなければならず、いろいろてこずったので、BigQueryにExportしたほうがはるかに楽です。SQL書くだけでJSはメッセージ整形すればよくなるのでおすすめです!
 また、Exportする際には、GKEのインスタンスがGCEと一緒になっていたりするので、さらに詳細な内訳を知りたい場合には、事前にラベルを付けるなどして分析していくとより細かなことがわかるようになるはずです。

60
50
1

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
60
50

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?