Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationEventAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
55
Help us understand the problem. What is going on with this article?
@glassmonkey

本番環境で動作している(はずの)selectを叩いてサービスを落とした話

この記事は本番環境でやらかしちゃった人アドベントカレンダー20205日目の記事です。

去年の投稿を見て自分も過去色々やらかしてしまったなあという反省と懺悔の元今回参加させていただきました。

TL;DR

当時新卒1~2年目だった自分にあるミッションが課せられました。

当時関わっていたサービスに
いわゆる一覧画面 + ページングで表示機能を実装している箇所がありまして、表示速度改善に取り組みました。
特に特定のカテゴリページの2ページ目以降の表示速度がかなり遅く、タイムアウトが頻発していたという状況でした。

Qiitaでいうところのタグフィードのようなものと思っていただけるとありがたいです。

スクリーンショット 2020-11-29 12.15.52.png

何をしたか

どの程度遅いかをまず調べようと、APIからDBに流れているはずのタイムアウトしているselect文をAPIと同様にRead Replicaにたたきました。

ちなみにデータベースはMySQLでした。

何が起こったか

すると、index的にきついクエリだったので、tmpファイルがあふれるという自体が発生した。
どうきつかったかというと、規模的には数百万規模のレコードに対して、Using temporary; Using filesortが発生している状態だった。

その結果、サービスを数分の間停止させるという自体を招いた。

[2020年12月5日12時追記]
ちなみに、クエリに関してはGUIアプリケーションから実行して、2~3分程待って、データベースのレスポンスが悪化しはじめたのでやめた記憶です。

science_hakase_shippai.png

どう対応したのか

tmpファイルの削除などでディスクを開けることで解消した記憶です。
当時の環境はオンプレだったので、インフラチームの方々にはご迷惑をおかけしました。

[2020年12月5日12時追記]
本番環境のAPIがたたいているクエリそのものではあったのですが、
APIクライアントがタイムアウトしてくれていたので、tmpファイルがあふれる前に処理が中断しているという状態でした。

今回の問題の原因

  • カジュアルに本番環境にselect文を流すことが日常的にあった。

    • 本番でないと再現しないDBのパフォーマンス的問題を当時はそれなりに抱えていた記憶。
    • 当時のテーブルの構成的にクエリ最適化が限界にきていた点も大きかった。
  • 実行計画に対する審美眼が自分になかった。

    • 遅いクエリの認識はあったが、本番のユーザーアクセス時に動いていたSQLなのでまさかサービスを止めるほどやばいクエリだとは思わなかった。
    • select = 読み込み操作という認識で、副作用がある認識をあまり持てていなかった。

再発防止策

全部が当時できたわけではないですが、以下が挙げられるかなと思います。

安全に壊せる環境を用意する

本番でなく開発環境で状況が再現すると理想ではあるのですが、
データの規模などで本番準拠のDBでしか再現しない問題は実際あると思います。

今回の事象はread処理のパフォーマンスの問題だったので、外部からのLBから外したRead Replicaを用意することで改善をしました。最悪そいつが死んでもサービスへの影響が少ないものを用意して、安全に本番準拠のクエリを試すための環境としました。

一番の理想は、本番環境準拠の環境が別にあると良いのかなとは思います。予算の問題があるので難しい問題ではありますが。

チームの認識を揃える

本番環境に流すときのselect文は実行計画を含めてレビューするようにはなりました。
「このクエリはやばいから、whereで〇〇を追加して範囲を絞ろう」みたいな議論が生まれました。

また、select文を本番に流す際もレビューを通してチームの共通認識になってたりしたので、
フォローに回ったり回ってもらったりも容易になった記憶もあります。

ペアオペを実施する

特に現代だと、リモートワークで自宅作業中心になりがちなので、
本番作業は画面共有しながら先輩社員と一緒にやるのが理想かなと思います。

1人だとどうしても漏れが発生しがちなのと、ターミナル操作のようにコード上に現れにくいものを
チームで共有できる良い機会なのかなと思います(良いツールとかこのとき教えてもらうことが多かった記憶)

余談(本来の目的のパフォーマンス改善に関しての対処に関して)

もともとの目的のパフォーマンス改善に関しては元のクエリがデータベースのテーブル的にほぼ絶望的だったので、ユーザーアクセス時に実行させない方針を取りました。

暫定対応としては、基本的にキャッシュを永続化し、定期実行するバッチで強制的にキャッシュを作り変えるようにしてユーザーアクセス時にスロークエリが流れないようにしました。

最終的にはRDBからデータを取得することをやめて、全文検索エンジン経由のデータ取得に切り替えることで他にも問題を抱えていた複雑なクエリ事情の解消としました。

おわりに

当時の関係者の方見てたら、ほんとすみませんでしたという謝罪の念でいっぱいです。

他にも色々やらかしてしまった思い出はありますが、その分チャンレンジさせていただいた感謝の念しかありません。

失敗した自分がいうのもあれですが、失敗しないとなかなか人間学べないと思います。
安全に失敗できる環境づくりを構築して、スピード感をもって良いプロダクト作りに貢献していきたいですね。

明日は@yutakatayさんの俺TUEEE系エンジニアが本番サーバーを0.1秒で落とした話とのです。
どんなRTAが待っているのか楽しみですね。

55
Help us understand the problem. What is going on with this article?
Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
55
Help us understand the problem. What is going on with this article?