開発しやすいRails on Docker環境の作り方

  • 755
    Like
  • 0
    Comment

最近、Rails界隈でDocker使い始めました、という話を聞く機会が増えてきたので、自分が開発環境整備用に構築したDockerの設定をまとめておく。

ちなみに、production運用については以前書いたので適当に探してくださいw

結論から書いておくと、volumeをちゃんと活用すればいい、ってだけの話です。

まず、本番用と開発用のDockerfileは分けた方が良い。一つでやろうとするとどうにも無理がでるので。
自分はDockerfileとDockerfile-devというものを用意している。

docker-composeはほぼ必須です。少なくともrailsプロセスとDBだけでも二つは必要だし、Dockerfileを分けてると事故るので。

Dockerfileはこんな感じ。

FROM mybase:ruby-2.3.1-debian

RUN echo "deb http://http.debian.net/debian jessie-backports main" >> /etc/apt/sources.list \
  && apt-get update \
  && apt-get install -y --no-install-recommends qt5-default libqt5webkit5-dev gstreamer1.0-plugins-base gstreamer1.0-tools gstreamer1.0-x xvfb \
  && rm -rf /var/lib/apt/lists/*
ENV DISPLAY :99

WORKDIR /app

ENV DOCKER 1

RUN bundle config build.nokogiri --use-system-libraries

ENTRYPOINT [ \
  "prehook", "ruby -v", "--", \
  "prehook", "bundle install -j3 --quiet --path vendor/bundle", "--", \
  "prehook", "npm install --no-optional", "--", \
  "prehook", "bower install --allow-root", "--", \
  "prehook", "sh docker/xvfb.sh", "--", \
  "prehook", "ruby docker/setup.rb", "--"]

# vim:ft=dockerfile

ENTRYPOINTには、entrykitを利用しているが、ここは各自で色々と調整。
重要なのはコンテナを起動したら絶対にやっておかなければいけないことは、強制的に実行されるようにしておくこと.
そして、Railsのプロセスにちゃんとシグナルが届くようにしておくこと。
単純にシェル噛ますとかだとシグナルがシェルにいってしまって駄目なので注意。
やることは、大体bundlerやnpmの実行ですね。capybara-webkitを使ってるのでxvfbの起動とかもこのタイミングでやっている。他は、APIキー等をS3から取ってきたりとか。
まあ、rubyが入っててテストが実行できるだけの環境があれば、余りやることはない。
重要なのは、docker-compose.ymlの方。

docker-compose.ymlは以下のような感じ。

version: "2"
services:
  datastore:
    image: busybox
    volumes:
      - mysql-data:/var/lib/mysql
      - redis-data:/data
      - bundle_install:/app/vendor/bundle
      - bundle:/app/.bundle
      - node_modules:/app/node_modules

  mysql:
    image: my-mysql
    environment:
      MYSQL_ROOT_PASSWORD: password
    networks:
      - default
    ports:
      - '3306:3306'
    volumes_from:
      - datastore

  redis:
    image: redis:alpine
    networks:
      - default
    ports:
      - '6379:6379'
    volumes_from:
      - datastore

  app:
    build:
      context: .
      dockerfile: Dockerfile-dev
    ports:
      - '3000:3000'
    environment:
      MYSQL_USERNAME: root
      MYSQL_PASSWORD: password
      MYSQL_HOST: mysql
      REDIS_URL: "redis://redis:6379"
      AWS_ACCESS_KEY_ID: ${AWS_ACCESS_KEY_ID}
      AWS_SECRET_ACCESS_KEY: ${AWS_SECRET_ACCESS_KEY}
    depends_on:
      - mysql
      - redis
    networks:
      - default
    volumes:
      - .:/app
    volumes_from:
      - datastore
    command: ["bundle", "exec", "rails", "s", "-b", "0.0.0.0"]

volumes:
  mysql-data:
    driver: local
  redis-data:
    driver: local
  bundle_install:
    driver: local
  bundle:
    driver: local
  node_modules:
    driver: local

大事なのは、プロジェクトディレクトリをvolumeとしてマウントすることと、bundleやnpmでインストールするものに対して別途volumeを定義することです。
後は、networksをちゃんと定義して、コンテナの名前をホスト名として利用できるようにすることですが、これはほとんどの場合docker-composeが勝手に処理してくれます。
サブネットを分けたりしてネットワーク構成をできるだけ本番に近付けたい、といった場合等はここで調整することも可能です。

こうしておくと、アプリケーションコードへの変更は直接Dockerコンテナ内に反映されるので、大体の変更は再起動も不要で普通にRailsが再読み込みしてくれます。
bundleでインストールする先は、dockerが別途docker上のvolumeに永続化されるので、手元がMacでdocker上はLinuxという状況でも、モジュールが混ざらず済むし、コンテナを消しても同じvolumeが再利用できてデータが残るんでbundle installがすぐに終わります。
npmも同様ですね。

ついでに、DBやredisのデータ格納領域もちゃんと定義しておくと、DBの結果もちゃんと残せます。
要は、冒頭に書いたようにvolumeを活用しようって話ですね。

サーバープロセスを起動しつつ、docker-compose execを使えばコンテナ内にシェルで入って調査とかもできるので、pryとかを使いたい場合はそれで可能です。byebugを使いたい場合は一回bashで起動してからコンテナ内で手動でサーバー上げた方が良いかもしれません。

ちなみに、Mac上で開発している場合、カレントディレクトリをdockerに直でマウントすると、パフォーマンス上かなり辛いという問題があります。
基本的にMacでDockerを動かす場合VMを経由することになるため、VMとMac間のデータのやり取りにオーバーヘッドがあります。
docker-machineを使っても、Docker for Macを使ってもかなり辛い。
現状dinghyが一番マシっぽいです。3つとも試しましたが、結局自分はdinghy使ってます。
dinghyはNFSサーバーをMac上で動かすことでディレクトリをVM側にエクスポートします。これは割とまともな速度で動きます。
正直、Docker for MacがストレージマウントしたらCPU食いまくるのは納得いかないし、早く何とかしてくれー!、という感じです。
なんせ、これができないと変更の度にイメージビルドが必要になって最悪なので……。