はじめに
以前もMagentaを用いて、サカナクションさんを学習させてみましたが、今回はMagentaのモデルのうち、LookBack RNNを用いてみます。
Macだと学習が進まないため、今回はAWSのGPUインスタンス上で行っています。
AWS上での環境構築については下記をご参考いただければと思います。
参考:AWSのGPUインスタンスでTensorFlow製音楽生成プロジェクト「Magenta」を動かす
LookBackRNNとは
Magentaの学習モデルの1つです。
LookBackの名前の通り、ある音の1、2小節前と比較し、その音が繰り返されているものなのかどうか、という情報も踏まえた上で学習するモデルになっています。
参考:Generating Long-Term Structure in Songs and Stories
実施内容
下記のREAD ME通り、学習から音楽生成までを行いました。
参考:Lookback RNN Train your own
学習用のMIDIファイルはサカナクションさんの
・アイデンティティ
・Aoi
・アルクアラウンド
・新宝島
・ミュージック
・夜の踊り子
を用いています。
MIDIファイルのEC2への送信、生成した音楽のダウンロードはこちらを参考に行いました。
学習には20000iterationsで10時間程度かかりました。
生成された音楽
LookBackRNNで作成したものがこちら。
サンプル1
サンプル2
サンプル3
以前BasicRNNというモデルで作ったものがこちら
Magenta-fish-1
Magenta-fish-2
Magenta-fish-3
学習回数も異なるため、モデルの影響とは一概に言えませんが、今回の方がかなりサカナクションさんぽいなと感じました。
繰り返し部分があると、より音楽っぽさが出る気がします。
ただ、学習用楽曲数が6曲、iterations 20000回はoverfitting?してるような気も。
おわりに
環境構築から楽曲生成まで、AWSで4000円ぐらいかかりました。
アルバム1枚分、安いものですね!
ありがとうございました。