Help us understand the problem. What is going on with this article?

GrowthForecastのデータをHRForecastにインポートする

More than 5 years have passed since last update.

はじめに

じょう「KPI測定しよう!」
おいら「いいですね!GrowthForecast入れました!」
じょう「打ち合わせで使うからExcelでデイリーの増減データちょうだい!」
おいら「りょ、りょうかいです!(rrdfetchをコマンドラインで叩いてデータをCSVに整形)」
じょう「デイリーの増減をグラフで見れてなおかつCSVでデータをダウンロード出来るページ無いの?」
おいら「りょ・・・ちょ、ちょっと待ってください!」

やったこと

上記の依頼を受けた際まず始めに、GrowthForecastで使われているRRDtoolの良さ気なフロントエンドを探しましたが、要件に見合うものが見つかりませんでした。(あったら知りたいです・・・出来るだけオレオレツールは作りたくないのです・・・)
RRDtoolには対応していないもののHRForecastが要件を満たしそうでした。そこでGrowthForecastのデータをHRForecastにインポートするスクリプトを書きました。それが以下になります。

やりかた

GrowthForecastのxportを拡張する

GrowthForecastにはxportというデータをjsonでエクスポート出来る機能が付いています。これを拡張しstepとcf (統合関数) (これらの単語について詳しく知りたい方はRRDtoolのドキュメント参照) を指定できるようにします。
Diff: xportにてstepとcf (統合巻数) を指定できるように修正→2013/12/08: 本家にmergeされました!

移行スクリプトを動作させる

以下の移行スクリプトをHR_URL (HRForecastのURL) とGF_URL (GrowthFOrecastのURL) 、またAUTH (双方にかかっているBasic認証のユーザ名とパスワード)を埋めて実行すれば、GrowthForecastのデータがデイリーに変換されHRForecastにそのままのURL構造でインポートされます。またそれだけではなく"-substract"という接尾語が付いた前日との増減を記録したグラフも作成されます。
ONLY_YESTERDATをtrueにすると昨日のデータだけをインポートするので速くなります。一番最初にfalseのまま全データを移行した後は、その後trueにして一日おきにCronで回せば最新のデータに追従出来ます。

# -*- encoding: utf-8 -*-
require 'open-uri'
require 'pp'
require 'multi_json'
require 'oj'
require 'net/http'
require 'uri'
require 'active_support'
require 'active_support/all'

ONLY_YESTERDAT = false

HR_URL = 'http://hr_url'
GF_URL = 'http://gf_url'
AUTH = ['hogehoge', 'hagehage']

Time.zone = 'UTC'
ENV['TZ'] = 'UTC'

def gf_read(path)
  json = open(GF_URL + path, http_basic_authentication: AUTH).read
  MultiJson.load(json)
end

def hr_post(path, data={})
  url = URI(HR_URL)
  http = Net::HTTP.new(url.host, url.port)
  request = Net::HTTP::Post.new(url.path + path)
  request.basic_auth(*AUTH)
  request.set_form_data(data)
  response = http.request(request)
end

graphs = gf_read('/json/list/graph')
graphs.each do |graph|
  graph_path = [graph['service_name'], graph['section_name'], graph['graph_name']].join('/')

  graph_json = gf_read("/json/graph/#{graph_path}")
  created_at = Time.parse(graph_json['created_at'])

  from = created_at.tomorrow.beginning_of_day
  to = Time.now.utc.yesterday.beginning_of_day
  from = to.yesterday.beginning_of_day if ONLY_YESTERDAT
  options = {
    t: 'c',
    to: to.to_date.to_s(:db),
    from: from.to_date.to_s(:db),
    step: 86400,
    cf: 'MAX'
  }
  xport = gf_read("/xport/#{graph_path}?#{URI.encode_www_form(options)}")
  start_xport = Time.at(xport['start_timestamp']).to_date
  end_xport = Time.at(xport['end_timestamp']).to_date

  dailies = (start_xport..end_xport).zip(xport['rows'].flatten)

  dailies.each do |date, num|
    options = { number: num.to_i , datetime: date.to_s(:db) }
    hr_post("/api/#{graph_path}", options)
  end

  dailies.each_with_index do |value, i|
    date, num = *value
    next if i < 1
    options = { number: num.to_i - dailies[i-1][1].to_i, datetime: date.to_s(:db) }
    hr_post("/api/#{graph_path}-subtract", options)
  end
end

おわりに

こんな家内制手工業みたいなことやりたくないです!!!なんか全てが統合されたよさげな環境ほしいです・・・。KibanaとかSplunkを触ってみようと思っているのですが、何かよさげなソリューションあったら教えて下さい・・・。

anoworl
appbrew-inc
「ユーザーが熱狂するプロダクトを再現性をもって創造する」をミッションにサービス開発・運営を行うスタートアップ
https://lipscosme.com/
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away