人生初コンテスト、NNC challenge vol.2
Qiitaに初めて投稿します、よろしくお願いいたします。
Neural Network Consoleを用いてAudiostockの音声(BGM)データを解析
NNC-challenge vol.2は以下を参照。
https://nnc-challenge.com/
参加の背景
AIに関する知識が身につけばと思い参加しました。
今回のテーマ
B.自由な発想で音声データを解析するにしました。
"プログレの音声を分類する。"
学習データ提供
学習用データ提供:Audiostock
やったこと
1.提供されたデータにタグ付けを行う。
今回、手動での設定になりますがプログレと分類してあるデータに1を、
それ以外のデータに0を設定しました。
- 学習データ 315個
- 検証データ 100個
内プログレタグ付きデータ
学習用 | 検証用 |
---|---|
3/315個 | 6/100個 |
結果
学習結果は以下になりました。
かなり信憑性の薄い...というか最悪のグラフになりました...
リソース 学習時間
cpu --:--:-- (測定不能でした)
NVIDIA® Tesla® K80 GPU x 1 00:04:41
NVIDIA® Tesla® V100 GPU x 1 00:01:54
やはり高性能なGPUほど処理時間が早いです。
※参考に サンプルデータwav_keyboard_soundによるCPU、GPU処理速度の結果
リソース 学習時間
cpu 00:07:57
NVIDIA® Tesla® K80 GPU x 1 00:00:32
NVIDIA® Tesla® V100 GPU x 1 00:00:14
CPUと比べるとGPUの使用はとても速いと感じました。
すべてがプログレと評価されてしまった事態に...
判断基準が曖昧、前準備が不足しすぎているためこういう結果になってしまったのではないかと推測します。
感想
初めてのコンテストおよびディープラーニング参加でした。
とても難しかったですが、動作できたことに何よりの喜びを感じます。
ほかの方を見てみるとpythonを用いて前準備を行っていたりと音声加工技術がすごいと思いました。
これを機に様々なツールに手を加えたいと思います。