こんにちは
突然ですがAIコードレビューシステムを作ろうと思います。
なぜ作るか
単純に今のプロジェクトでコードレビューしてくれる人がいないからです。
(開発は終わって機能改修込みの保守で、メンバーが自分のみ状態。一応管理者ということで部長がいる)
一次レビューにもってこいなシステムを作りたい。
使用するAI
今回コードレビューを担当してもらうAIはcursor君になります。
本当はclaude君契約してやりたかったけど、そんな富裕層ではないので、現場で使わせてもらってるcursorにしましたとさ。(現場部長確認済み、何なら乗り気でした)
まあ使用modelはclaudeなので結果オーライかな。
概要
無難にそれっぽく書いていきましょう。
目的
- Cursor内で完結するAIレビュー環境を作る
- レビュー品質をルールで安定化し、一次レビューを担う
- 修正 → 再レビューをサイクルして、品質向上を目指す
フォルダ構造
無難に必要であろう要素を詰め込みます。
AI-review-systems/
├ README.md
├ start_review.sh # レビュー実行の大元
├ lib.sh # 共通処理
├ rules/ # 判断基準(方針・重大度・出力形式)
├ skills/ # 観点(フロント・セキュリティ等)
├ prompt/ # AI への命令文
├ templates/ # 出力時の定型文
├ reviews/ # レビュー結果
└ logs/ # 実行ログ
簡易的なフロー
とりあえず自分用で想定。評価されたら汎用化したいね。
1. コマンド実行(引数KEYで保存先を決定)
2. Gitから差分取得(origin/developを基準に、差分がなければ終了)
3. AIレビュー用プロンプトを生成(rules/skills/templatesと、2回目以降は前回レビューを参照させる)
4. CursorCLI認証を確認
5. AIレビュー実行(cursor agentでプロンプトを送信、最大600秒くらい)
6. レビュー結果を保存(最新のレビュー、番号付きレビュー、metaファイル)
7. 完了
事前準備
Cursor公式のDashboardから、Cloud Agentsメニュー内にある「User API Keys」で新規キーを発行!
今後の動き
隙間時間で作成しているので、一旦ここまで。
次回は実際に実行→AIレビュー→出力フローを組んでいこうと思います。
ありがとうございました。