Help us understand the problem. What is going on with this article?

Magentaのdocker imageを使って、バッハ風の旋律を生成する

More than 1 year has passed since last update.

Magentaとは

MagentaはGoogle Brainが開発している音楽や絵画といった芸術作品を機械学習から生み出すプロジェクトです。TensorFlowをバックエンドに使用しています。
今回はMagentaのdocker imageを使い、自前で用意した学習データからモデルを生成し、そのモデルから単一の旋律を生成するまでの作業をやってみます。
私はmacbookで作業しましたが、dockerを使っているので、(理論上は)どのOSでも同じように動かせます。

それではやってみましょう。

学習対象とする楽曲のmidiファイルを収集

今回はバッハの楽曲を学習データとするので、以下のサイトからmidiファイルをダウンロードしました。
IMSLP/Petrucci Music Library: Free Public Domain Sheet Music

また、全てをダウンロードするのは大変だったので、バッハの中で個人的に好きな以下の楽曲を今回の学習データとしました。

  • Goldberg-Variationen, BWV 988
  • Orchestral Suite No.1~4
  • Brandenburg Concerto No.1~6

(合計68ファイル)

docker imageの起動

$ docker pull tensorflow/magenta
$ docker run -it -p 6006:6006 -v /tmp/magenta:/magenta-data tensorflow/magenta

-v でマウントしているホストマシンの /tmp/magenta ディレクトリに学習データなどが放り込まれていきます。

作業用ディレクトリの作成

学習の過程で幾つかの中間ファイルが生成されます。
今回は以下のようなディレクトリを用意しておきます。

magenta-data
├── midi
│   ├── original ← 学習用のmidiファイルを格納するディレクトリ
│   └── generated ← 生成されたmidiファイルを格納するディレクトリ
└── tmp
    └── melody_rnn
        ├── logdir
        │   └── run1 ← 学習データを格納するディレクトリ
        ├── notesequences ← 生成されたNoteSequenceを格納するディレクトリ
        └── sequens_example ← 生成されたSequenceExamplesを格納するディレクトリ

学習用midiファイルを配置

今回は magenta-data ディレクトリがホスト側にマウントされているので、ホストマシンの/tmp/magenta/midi/original/ディレクトリにmidiファイルを格納しておきます

なお、以降の作業は全てコンテナ内で行います。

学習用midiファイルからNoteSequenceの生成

NoteSequenceの生成
convert_dir_to_note_sequences \
    --input_dir=/magenta-data/midi/original \
    --output_file=/magenta-data/tmp/melody_rnn/notesequences/notesequences.tfrecord \
    --recursive

このコマンドで元のmidiファイルからNoteSequenceが生成されます。
NoteSequenceは、midiファイル内のメロディをプロトコルバッファに則った音の配列に変換して、さらにTensorFlowが扱えるフォーマットに変換したもの、くらいに考えておけば良さそうです。
本家の説明はこちら

NoteSequenceからSequenceExampleの生成

SequenceExampleの生成
melody_rnn_create_dataset \
--config=basic_rnn \
--input=/magenta-data/tmp/melody_rnn/notesequences/notesequences.tfrecord \
--output_dir=/magenta-data/tmp/melody_rnn/sequens_example \
--eval_ratio=0.10

このコマンドでNoteSequenceをSequenceExampleに変換しています。
SequenceExampleは実際の学習と評価のための材料になるものです。
パラメータの --config=basic_rnn で、 basic_rnn を指定しています。これは学習モデルを指定していて、 basic_rnn の他に、 lookback_rnnattention_rnn を指定することができます。それぞれの学習モデルの概要はこちらのページの解説が分かりやすかったです。
また、--eval_ratio=0.10というパラメータは、入力データのうち、何割を学習データにして、何割を教師データにするかを指定しています。--eval_ratio=0.10の場合、10%を教師データとして、残りの90%を学習データとして使用する、という指定になります。
本家の説明はこちら

SequenceExamplesを使ってモデルのトレーニング

モデルのトレーニング
melody_rnn_train \
--config=basic_rnn \
--run_dir=/magenta-data/tmp/melody_rnn/logdir/run1 \
--sequence_example_file=/magenta-data/tmp/melody_rnn/sequens_example/training_melodies.tfrecord \
--hparams="{'batch_size':64,'rnn_layer_sizes':[64,64]}" \
--num_training_steps=2000

まず注目するのは--hparams="{'batch_size':64,'rnn_layer_sizes':[64,64]}"というパラメータです。
まずbatch_sizeは、一度の処理で使うメモリサイズを指定しています。デフォルトは128で、大きければ大きいほど処理は早くなりますが、大きくしすぎるとOut of Memoryのエラーが頻発します。
次にrnn_layer_sizesは、RNNの段数と各段のユニット数の指定です。[64,64]は2段のRNNで、各レイヤのユニット数は64ずつです。デフォルトでは[128,128]です。段数を増やすことで、より深い学習が可能ですが、それだけマシンリソースを消費します。

また、--num_training_steps=2000は学習ループを終了する前に取るべき更新ステップ回数を指定しています。
今回は最初20000を指定したのですが、トレーニング中のトレースログを見ていたら1ステップあたり1.5秒程度かかっていて、このままだと1.5秒×20000ステップで8時間以上かかる計算でした。特にmacbookなど、GPUを使えないマシンでは、少ないステップ数から検証するのが良いと思います。
ちなみに未指定の場合は、手動で終了するまで実行され続けます。
本家の説明はこちら

トレーニングしたモデルで作曲

作曲する
melody_rnn_generate \
--config=basic_rnn \
--run_dir=/magenta-data/tmp/melody_rnn/logdir/run1 \
--output_dir=/magenta-data/midi/generated \
--num_outputs=10 \
--num_steps=256 \
--hparams="{'batch_size':64,'rnn_layer_sizes':[64,64]}" \
--primer_melody="[60, -2, 72, -2]"

このコマンドで注目するのは --primer_melody="[60, -2, 72, -2]" というパラメータです。
このパラメータは生成する旋律に対して、冒頭のフレーズを指定することができます。
今回指定している[60, -2, 72, -2]という値は、最初の音の高さは60(ド)で長さは-2(16不音符2つ分)、次の音の高さは72(最初のドの1オクターブ上のド)で長さは-2(16不音符2つ分)と指定しています。
数値の指定はmidiの仕様に則っているそうです。
また、このパラメータにmidiファイルを指定することもできます。

--num_steps=256 は生成する旋律の長さを指定しています。1小節あたり16音×小節数の値を設定します。256の場合、256/16=16で、16小節の長さの旋律を生成します。
また --num_outputs=10 で、生成する旋律数を10と指定しています。
本家の説明はこちら

出来上がった旋律

その1
その2
その3
その4
その5
その6
その7
その8
その9
その10

感想

バッハ風かどうかは別にして、とにかく簡単でした。
全てのコマンドにパスが通っている状態のコンテナが起動しているので、やるべきことは学習データを集めて、パラメータのチューニングをするだけでした。

もっと洗練されていけば、ベースになる旋律をマシンに作らせて、和声を加えるなどのアレンジをするだけで曲を量産していく作曲家も出てくるんじゃないかなと思います。

参考

tensorflow/magenta(公式)
Magentaを使ってAI(人工知能)に作曲をさせてみる
Google Magentaが新たに公開した2つの作曲ニューラルネットワーク(Lookback RNN,Attention RNN)

Why do not you register as a user and use Qiita more conveniently?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
Comments
Sign up for free and join this conversation.
If you already have a Qiita account
Why do not you register as a user and use Qiita more conveniently?
You need to log in to use this function. Qiita can be used more conveniently after logging in.
You seem to be reading articles frequently this month. Qiita can be used more conveniently after logging in.
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away