6
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

MLOpsAdvent Calendar 2021

Day 3

DataRobot × Vertex Feature Storeで実現するオンライン推論

Last updated at Posted at 2021-12-03

宣伝

2021年最後のMLOps勉強会は12月8日(水)を予定しています。
内容はベクトル近傍探索技術とA/Bテストの2本立てです。
ぜひご参加ください!

やりたいこと

 DataRobot × Vertex Feature Storeでオンライン推論してみて、実際にオンライン推論に耐えれるパフォーマンスで処理してくれるのか確認しておきたい

モチベーション

 最近、日本のお客様でもバッチ的な学習及び推論だけでなく、オンライン推論にチャレンジしたいというニーズも増えてきているように思います。しかし、オンライン推論を実現するためには、学習時と推論時で異なる性能要件を満たすストレージやデータベースが必要になります。
 具体的には、学習時には基本大量のデータが必要なためデータウェアハウスやデータレイクといったデータベースやストレージからデータを取得または特徴量エンジニアリングして結果を保管するといった形で活用します。一方、オンライン推論では少量の特徴量を素早く取り出す必要が出てきますが、読み込みに時間のかかるデータウェアハウスやデータレイクではこの要件を満たすことができないため、KVS(Key-Value Store)など少量データを素早く取り出すことができるデータベースやストレージが必要となります。
image.png
出典:A State of Feast

 上記の画像で言うと、Offline Storeがデータウェアハウスやデータレイクで、Online StoreがKVSを指します。このようにバッチ処理用とオンライン処理用にストアを分けた場合、どちらのストアにも同じデータをロードしたり、双方のストアでデータのやりとりをしたりと複雑なパイプラインを構築する必要が出てくるため、非ITテック企業がいきなり挑戦するには、運用含めハードルが高かったりします。
そういった課題を解決するために生まれたのがFeature Storeであり、Google CloudではVertex Feature Storeとして爆誕しています。素晴らしいですね。
Comp_1_4.gif
出典:Vertex Feature Store で特徴量管理の MLOps はこう変わる
 
 Vertex Feature Storeが生まれた歴史やどんなに素晴らしい機能を持ち合わせているかについてはや公式ドキュメントや先人たちの素晴らしい記事をご確認いただくとして、私はピュアに実際にオンライン推論で耐えれるパフォーマンスを出してくれるのかを確認したいと思います。(そしてパフォーマンス出るならオンライン推論をお待ちのお客様へ提案のオプションとして使いたい。まぁ、Feastと同じアーキテクチャならRedisだからそのままならそりゃ早いだろうという話かもですが、体感しておきたいのです)
【書き起こし】Vertex PipelinesとFeature Storeを活用した不正防止システム – Liu Songjie【Merpay Tech Fest 2021】
Vertex AIを活用したMLOpsの実現【後編】

検証イメージ

 検証は東京リージョンにあるGoogle CloudのFeature Store、Computer Engineと、USリージョンにあるDataRobotを活用して実施します。まずは、事前にDataRobotにローン審査で貸し倒れを予測するモデルを作成し、Feature Storeには推論用の特徴量をロードします。そして、Computer Engine上で①特徴量取得と②推論を100回繰り返して、①のみ、①+②それぞれで1回あたりどれぐらいの処理時間になるのか確認します。
image.png

事前準備

 それでは事前準備を始めます。

  • DataRobotにローン審査で貸し倒れを予測するモデルを作成
  • Feature Storeに推論用の特徴量をロード
  • 実験用のpythonライブラリインストール

DataRobotにローン審査で貸し倒れを予測するモデルを作成

 DataRobotでモデルを作ってデプロイし、予測可能な状態にします。

モデル作成

 まずは学習データをドラッグ&ドロップでアップロードして、ターゲット指定し、「開始」ボタンをクリックするだけ、簡単ですね。

image.png

デプロイ

 続いてデプロイ。モデル作成を開始すると、AutoMLで沢山モデルが作成されるので、一番精度の良いモデルを選択し、「デプロイを作成」でデプロイします。

image.png

 これだけで、APIで予測する環境が自動で構築され、モニタリング(正常性、データドリフト、精度)、モデル更新、並行稼働など運用に必要な機能が即時に利用できるようになります。何も考えず、ポチポチ進めます。

image.png

Feature Storeに推論用の特徴量をロード

 次にFeature Storeに推論用の特徴量をロードします。直感的には、Feature Storeという箱を作成して、Entity(表)、Feature(列)を定義して、Entityにデータをインポートするイメージです。それぞれの正式な定義はこちらを確認ください。

Feature store作成

公式ドキュメントに従って、Feature Storeを作成します。ノード数は100件予測するだけなので、ケチって1に。

image.png

Entity、Featureを定義

公式ドキュメントに従って、EntityFeatureを定義します。特段難しい操作はないですが、Featureを一つひとつ丁寧に定義しないといけないのは少し手間でした。(GCSからBigQueryにデータ取り込むみたいに自動でスキーマ定義できるのかと思ってました)

image.png

推論用の特徴量をロード

GCSにアップしているCSVファイルをロードする対象として指定します。
image.png

ロードするCSVとFeatureとのマッピング、一意の列、タイムスタンプを指定してロードします。
image.png

実験用のpythonライブラリインストール

最後に、Computer Engineに実験用のpythonライブラリをインストールします。

!pip install pandas
!pip install google-cloud
!pip install google-cloud-aiplatform
!pip install pydata-google-auth

実験

実験コード

import pydata_google_auth
from google.cloud import aiplatform
from pandas.io.json import json_normalize
import json
import requests
import time

credentials = pydata_google_auth.get_user_credentials(
['https://www.googleapis.com/auth/cloud-platform'],
)

# カラム名定義
COLUMN_NAME = ["id","member_id","loan_amount","purpose_type","purpose_detail","title","emp_length","home_ownership","annual_inc","zip_code","addr_state","dti","grade","sub_grade","delinq_2yrs","earliest_cr_line","inq_last_6mths","mths_since_last_delinq","mths_since_last_record","open_acc","pub_rec","revol_bal","revol_util","total_acc","initial_list_status","collections_12_mths_ex_med","mths_since_last_major_derog","application_type","acc_now_delinq","tot_coll_amt","tot_cur_bal"]
# カラム行作成
column_row = ""
for i in COLUMN_NAME:
    column_row += i + ","
COLUMN_ROW = column_row[:-1]

# 開始番号
START_NUM = 1

# 終了番号
END_NUM = 101

# DataRobotアクセス、認証情報
API_TOKEN = 'NjE…'
LOCATION = 'htt…'
DEPLOYMENT_ID = '61a…'
DATAROBOT_KEY = '2ad…'

# GCPアクセス、認証情報
LOCATION_GCP = "asia-northeast1"
API_ENDPOINT = "asia-northeast1-aiplatform.googleapis.com"
PROJECT = "ai-…"

# 特徴量取得
def read_feature_values_sample(
    project: str,
    featurestore_id: str,
    entity_type_id: str,
    entity_id: str,
    location: str = LOCATION_GCP,
    api_endpoint: str = API_ENDPOINT,
):
    client_options = {"api_endpoint": api_endpoint}
    client = aiplatform.gapic.FeaturestoreOnlineServingServiceClient(
        credentials=credentials,
        client_options=client_options
    )
    entity_type = f"projects/{project}/locations/{location}/featurestores/{featurestore_id}/entityTypes/{entity_type_id}"
    feature_selector = aiplatform.gapic.FeatureSelector(
        #id_matcher=aiplatform.gapic.IdMatcher(ids=["age", "gender", "liked_genres"])
        id_matcher=aiplatform.gapic.IdMatcher(ids=COLUMN_NAME)
        
    )
    read_feature_values_request = aiplatform.gapic.ReadFeatureValuesRequest(
        entity_type=entity_type, entity_id=entity_id, feature_selector=feature_selector
    )
    read_feature_values_response = client.read_feature_values(
        request=read_feature_values_request
    )
    return read_feature_values_response

# 予測リクエスト
def request_predict(data):
    headers = {'Content-Type': 'text/csv', 'Authorization': 'Token {}'.format(API_TOKEN), 'Datarobot-key': DATAROBOT_KEY}
    url = '{location}/predApi/v1.0/deployments/{deployment_id}/predictions'.format(
        location=LOCATION, deployment_id=DEPLOYMENT_ID
    )
    resp = requests.post(url, data=data, headers=headers)
    if resp.status_code >= 400:
        raise RuntimeError(resp.content)
    return resp

# 予測処理時間チェック
def check_predict_time():
    full_time = 0
    for i in list(range(START_NUM, END_NUM, 1)):
        start = time.time()
        feature =  read_feature_values_sample(PROJECT,"aie_jp_feature_store","customer_loan_info",str(i))
        value_row = ""
        for i in feature.entity_view.data:
            value_row += i.value.string_value + ","
        value_row = value_row[:-1]
        predict_data = '\n'.join([COLUMN_ROW, value_row])
        request_predict(predict_data)
        process_time = time.time() - start
        print(process_time)
        full_time += process_time
    avg_time = full_time / CONTINUE_NUM
    print('avg:' + str(avg_time))
        
# 特徴量取得処理時間チェック
def check_get_features_time():
    full_time = 0
    for i in list(range(START_NUM, END_NUM, 1)):
        start = time.time()
        feature =  read_feature_values_sample(PROJECT,"aie_jp_feature_store","customer_loan_info",str(i))
        process_time = time.time() - start
        print(process_time)
        full_time += process_time
    avg_time = full_time / CONTINUE_NUM
    print('avg:' + str(avg_time))

実験結果

①特徴量取得を100回実行

結果

  • Average 0.274 sec / request
check_get_features_time()

0.26268815994262695
0.3037567138671875
0.2528853416442871
0.3494291305541992
0.34375524520874023
0.4218630790710449

…省略

0.10626888275146484
0.32819509506225586
0.3135831356048584
0.2529292106628418
avg:0.2744241166114807

①特徴量取得+②推論を100回実行

結果

  • Average 0.989 sec / request
check_predict_time()

1.1247999668121338
1.046828031539917
1.046875

…省略

0.9218287467956543
0.9375073909759521
0.9062390327453613
avg:0.9895281982421875

所感

 ①特徴量取得を100回実行は、Average 0.274 sec / request という結果に。同じ東京リージョン内で完結する処理だったため、なんとなくもう少し早いかなーと思っていましたが、msecレベルで処理はできているので良しとしましょう。
 ①特徴量取得+②推論は、Average 0.989 sec / request という結果に。DataRobotがUSリージョンにあるので、平均1秒なら上々なパフォーマンスではないかなと思います。①特徴量取得+②推論を全てUSリージョンで完結させるパターンで最初試そうかと思ったのですが、日本のお客様は日本リージョンにデータやアプリ置くことが多いと思うので、今回の構成の方がより現実的な処理時間が確認できたのではないかと思います。

6
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
6
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?