2
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

GAS(Google Apps Script)からワンクリックでec2にアプリケーションをdeployする

Last updated at Posted at 2020-05-03

スプレッドシートで管理している内容をRuby on Railsのアプリケーションにdeployするという運用があり、これまでは、

  1. スプレッドシートを編集(運用チーム)
  2. 開発チームに依頼(運用チーム)
  3. スプレッドシートの内容をcsvで保存(開発チーム)
  4. csvファイルを所定のディレクトリに置く(開発チーム)
  5. capistranoを使ってec2にdeployする(開発チーム)

という運用でした。
これ、めんどくせえなぁ、という事で運用を見直した話となります。

お話する内容

こんな仕組みが作れたよ、という話

システム構成

Untitled Diagram(1).png

登場人物

  1. SpreadSheets
  2. S3
  3. Lambda
  4. CodePipeline with CodeDeploy
  5. EC2

流れ

① スプレッドシート上のdeployボタンが押される
② 特定のフォルダをWatchしていたLambdaが実行されてzipファイルに固める
③ S3上の特定のファイルをWatchしていたCodePipelineが実行される
④ CodeDeployにより各EC2にcsvファイルがコピーされ、deployコマンドが実行される

① スプレッドシート上のdeployボタンが押される

例えばこんなスプレッドシートがあります。

スクリーンショット 2020-05-03 23.22.51.png

これをCSVファイルにしてS3にアップしたい。

こちらを参考にさせていただきました。

GoogleスプレッドシートのデータをS3へCSVとして保存する

  1. S3へのPutObject権限だけをもつIAMユーザーを作成してアクセスキーなどをコピー
  2. csvとzipファイルの保存先となるS3 bucketを作る(今回はxxxx-auto-deploy。csvはcsv/に、zipファイルはzip/に保存される)
  3. スプレッドシートの ツール>スクリプトエディタ よりスクリプトを生成
  4. スクリプト内ではcsvファイルの他、codedeployで使われるappspec.ymlとappStart.shが生成される
  5. 挿入>図形描画 よりボタンを生成
  6. ボタンに対して作った関数を割り当てる(例では myFunction )

スクリプト:

js
const aws_bucket_name = "xxxx-auto-deploy";
const aws_access_key = "xxxx";
const aws_secret_key = "xxxx";
const s3 = S3.getInstance( aws_access_key, aws_secret_key );
// スプレッドシートを取得
const ss = SpreadsheetApp.openById('xxxx');
const activeSheet = ss.getSheetByName('シート1');

async function myFunction() {
        var _data = activeSheet.getRange("A:B").getDisplayValues();
        // csvデータ用の配列を用意
        var csv = '';
      
        // データをチェックしながらループ
        for (var i = 0; i < _data.length; i++){
            v = _data[i];

            if(v[0] === ''){
                continue;
            }
            
            var l = '"' + v[0] + '","';
            l += v.slice(1,-1).join('","'); //←ここ2列以下のCSVだといらなかった
            csv += l + '","' + v[v.length - 1] + '"' + "\n";
        }
        
        //csvをS3にアップ
        var blob = Utilities.newBlob(csv, MimeType.CSV).setName("data.csv");
        await s3.putObject( aws_bucket_name,'csv/data.csv', blob, {logRequests:true} );
        
        //codedeployで使うymlとshも生成
        var txt = ''
        var appspec = `version: 0.0
os: linux
files:
  - source: ./
    destination: /home/user/application/
hooks:
  ApplicationStart:
    - location: appStart.sh
`;
        //appspec.ymlをS3にアップ
        txt = Utilities.newBlob(appspec, MimeType.PLAIN_TEXT);
        await s3.putObject( aws_bucket_name, 'csv/appspec.yml', txt, {logRequests:true} );
    
        var appStart = `#!/bin/bash

echo "deploy!"
`;
  
        //appStart.ymlをS3にアップ
        txt = Utilities.newBlob(appStart, MimeType.PLAIN_TEXT);
        await s3.putObject( aws_bucket_name, 'csv/appStart.sh', txt, {logRequests:true} );

    return true;
}

すんません。だいぶ短めにまとめたのでだいぶ雑です。
やってる事はシンプル。csvファイルを作るのと3つのファイルをS3のcsv/にアップしてるだけ。

スクリーンショット 2020-05-03 23.27.40.png スクリーンショット 2020-05-03 23.27.57.png

ボタン作って割り当てる。
これでボタンを押すとS3にファイルがアップされる。

② 特定のフォルダをWatchしていたLambdaが実行されてzipファイルに固める

S3のPutをトリガーに実行されるLambdaを作成します。

Key Value
functionName 適当
runtime Python3.8
トリガー S3
アクセス権限 ログ書き込み+S3の書き込み読み込み(特定のバケットでOK)|

S3のPutトリガー

トリガーとしてS3を選択し、下記のような設定にします

Key Value
イベントタイプ ObjectCreatedByPut
サフィックス appStart.sh
プレフィックス csv

サフィックスにはスクリプトからS3にアップされる最後のファイルにしています。
appStart.shがcsvフォルダ内にPutされるとこのLambdaが実行される

スクリプトの中身

import datetime
import boto3
import zipfile
import os.path
import os
 
print('Loading function...')

s3 = boto3.resource('s3')
s3_cli = boto3.client('s3')
tmp_dir = '/tmp'

def lambda_handler(event, context):
 
    now = datetime.datetime.now()
    sourceFileName = 'deploy.zip'
    
    try:
        # バケット名
        input_bucket = event['Records'][0]['s3']['bucket']['name']
    
        # zipというフォルダにdeploy.zipをいうファイルを置きたい。ファイルは一旦/tmpにDL
        uploadZipFileName = 'zip/{}'.format(sourceFileName)
        localZipFileNamme = '{}/{}'.format(tmp_dir, sourceFileName)

        bucket = s3.Bucket(input_bucket)
        # csvやymlを/tmpにDL
        filenames = []
        print('Downloading s3 file...')
        for object in bucket.objects.filter(Prefix='csv/'):
            _filename = object.key.split("/")[-1]
            if _filename[-3:] not in ['csv','yml','.sh'] :
                continue
            file_path = os.path.join('', object.key.split("/")[-1])
            filenames.append(_filename)
            s3_cli.download_file(object.bucket_name, object.key, '{}/{}'.format(tmp_dir,_filename))
        
        # DLしたファイルをzipファイルに固める(/tmp内で)
        with zipfile.ZipFile( localZipFileNamme, "w", zipfile.ZIP_DEFLATED) as zf:
            for name in filenames:
                filename = os.path.join(tmp_dir, name)  # 保存先
                zf.write(filename=filename, arcname=name)
            
        # Upload ziped file
        print('Uploading ziped file...')
        bucket.upload_file( localZipFileNamme, uploadZipFileName)
 
    except Exception as e:
        print(e)
        print('Opps, Error happened')
        raise e
        
    print('Finish function!')

これで特定のバケットにzip/deploy.zipというファイルが生成されます。

今回の例だと3つのファイルがupされ、それがzipに固まる

  • data.csv
  • appspe.yml
  • appStart.sh

③ S3上の特定のファイルをWatchしていたCodePipelineが実行される

AwsコンソールよりCodePipelineを開き、Pipelineを生成します。

key value
パイプライン名 なんでもいい
サービスロール 新しく生成(わかる人は既存でいい)
ソースプロバイダ amazon S3

※ちなみに書いてない部分はデフォルト(2020/5/4現在)

ソースプロバイダ

CodepipelineはソースとしてS3を選択できます。
つまりcodedeploy時に使われるソースです。

key value
バケット名 今回はxxxx-auto-deploy
S3オブジェクトキー zip/deploy.zip

基本、これだけでOK

ビルドプロバイダ

要りません。スキップでOK

デプロイプロバイダ

CodeDeployです。

先にDeploy対象のアプリケーションとグループを作っておきましょう。
今回はec2が対象で、Nameタグに特定の文字列を指定してあるものとします。仮にauto-deployとしましょうか。

key value
アプリケーション名 適当
コンピューティングプラットフォーム EC2/オンプレミス
デプロイグループ名 適当
デプロイタイプ インプレース
デプロイ設定 CodeDeployDefault.OneAtATime(1台ずつdeploy。これじゃなくてもいい)
環境設定: Amazon EC2 インスタンス キー:Name、値:auto-deploy
サービスロール AWSCodeDeployRoleポリシーがアタッチされたロール。

これでcodePipelineの設定は完了です。

④ CodeDeployにより各EC2にcsvファイルがコピーされ、deployコマンドが実行される

今回のCodeDeployの流れとしては、codedeploy agentを介して、ec2インスタンス上で下記の動作が行われます。

  1. csvファイルのコピー
  2. appStart.shの実行

これらの設定がappspec.ymlに書いてあるわけです。
なお、csvファイルなどはS3上にあるため、ec2インスタンスよりS3ファイルのGetができる権限が必要となります。
Ec2インスタンスにS3ReadOnlyポリシーを付与したロールをアタッチするのがいいと思います。
それとcodedeployのagentのインストールと起動が必要です。

CodeDeploy エージェントのインストールまたは再インストール

これで完了。
スプレッドシート上のボタンを押すと一連の流れが動作し、appStart.shが実行されるはずです。
appStart.shは空に近い状態となっていますが、実際にはここにdeployコマンドを書いて、ec2上で実行させる感じです。
またcodedeployはapplicationStart以外にもコマンドを実行させるタイミングがいくつかあるので、このあたりを参考にしてみてください。

最後に

codedeployのログは/opt/codedeploy-agent/deployment-rootのあたりにあります(centos系のosの場合)。
deploy中は、tail -f /opt/codedeploy-agent/deployment-root/deployment-logs/codedeploy-agent-deployments.logとかを実行しておくとdeployの様子がわかりやすいと思います。
deployの設定がちゃんとできるまではちょこちょこ失敗とかすると思います。。ファイルの上書き問題とか(←これはBeforeInstallのあたりで削除してあげるといい)

なんか書きたいことざっと書いただけですがこんな感じで終わります。

2
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?