#最初に
前回同様にKeras経由のDLに慣れるために、下記URLで紹介されているデモコードを実行してみる。そしてコードに解らない点があったら調査&メモとして記録する。今回は、LSTM&音楽生成にチャレンジする。
Using Keras & Theano for deep learning driven jazz generation
#事前準備&実行
◯追加ライブラリの導入
・music21
音楽構造の抽出、変換、編集などといったことを記号操作によって行う。音声ファイル(midi)を数値配列に変換できる。wavやmp3は無理な様子。
・scipy
科学技術計算のツールボックス。補完、積分、最適化、画像処理、統計、特殊関数等。
◯動かすためにやったエラー潰し
・学習のときに、numpyのエラーが出たが、gitのissueボードを見たら解決策が書いてあって助かった。(epochを制限する)
・music21の関数の引数の仕様が、installしたライブラリのversionとデモコードとで違いがありハマった。
・xrangeをrangeに変更。Python3系ではxrangeは存在しない。
どうやら、2系で書いたデモコードだった模様。
##まとめ
・デモコードが前提とする実行環境と、今回試した環境に差異があったため色々と問題が発生したが、無事に音楽生成が実現できた。
・Keras 〜Theano用のコードも、Keras 〜Tensorflowで動くが、今回のデモコードの場合、Tensorflowの方が圧倒的に早かった。
・途中で止めてしまったので結果の差異は確認していないが、サイトにUPされてる生成済音源と一緒に聞こえ、ほぼ差異はなさそう。