Synthetic Sensor Data Generation for Health Applications: A Supervised Deep Learning Approach 要約
読んだ論文
Synthetic Sensor Data Generation for Health Applications: A Supervised Deep Learning Approach
Skyler Norgaard, Ramyar Saeedi, Keyvan Sasani, Assefaw H. Gebremedhin
https://scads.eecs.wsu.edu/wp-content/uploads/2018/04/embc_sensor_data_generation.pdf
上記の論文を読んだので簡単にまとめます. IEEE Engineering in Medicine and Biology Society Conference (EMBC 2018)で発表されたようです.
3行でまとめる
- ヘルスモニタリングのための行動認識研究では,センサデータのアノテーションが大変である.
- ということでデータを敵対的訓練の手法を用いてセンサデータを自動生成することでこの苦労を減らそう.
- GとDとCを使った敵対的訓練で行動認識用データを自動生成し,公開データセットで評価した.
関連研究
こちらの論文1でも同じようなことが実施されていて,こちらではセンサデータのプライバシー問題を背景として挙げられています.
提案手法
提案モデル
- 基本的にはGANのモデル構造である.
- G(Generator), D(Discriminator), C(Classifier)の三者を敵対させる.
- Gはランダムな入力からセンサデータっぽいものを生成する.
- Dは与えられたセンサデータが本物か偽物かを弁別する.
- Cは与えられたセンサデータがどの行動ラベルかを識別する.
- Gの出力をDとCに分岐させて入力とし,DとCの結果をGにフィードバックする形である.
- 各モデルはLSTMベースのRNNで実装されている.
学習方法
- Cの訓練にはCategorical cross-entropyを用いて予測精度が高まるようにロスを最小化する.
- Dの訓練にはlog lossを最小化するように学習する.
- Gの訓練にはD(G(X))のlog lossを最大化するように,かつ,C(G(X))のCategorical cross-entropyを最小化するように学習する.
- これを本物と偽物のデータを交互に学習することで実現する.
評価実験
- 公開データセット Daily and Sports Activitiesdataset 2 を用いて実験する.
- 各5分の19行動を8人で実施している.そのうち9動作を選択した模様.
- 生成データの多様性が減少し始めるため,Gを訓練する際のCの精度は80%で止めることにした.
- 困ったことに先行研究や数学的指標がないため,生成データの評価が難しい.
- STS(Synthetic to Synthetic): 合成データVS合成データのcos類似度→多様性を測る.
- RTS(Real to Synthetic): すべての合成データVSランダムで10個選択した実際のデータでcos類似度→次のRTRと共に使う.
- RTR(Real to Real): 全ての実際のデータVS実際のデータの平均類似度→RTSとRTRが似ていれば提案手法はいい感じと言いたい様子.
まとめ
- 行動認識用のデータをGANで自動生成した論文.
- この他にも1,2本シンプルにセンサデータを自動生成した論文があった.(一つはHMMベースだった気がする.MDPI Sensorsで論文になっていた.)
所管
手法が簡単だったのでサクッと読めたように思ったのですがなんだかんだ1時間半くらいかかっていました.英語力不足が残念です.センサデータの自動生成は私もやりたいんですが,できたとしても人間が目視で判断できない点が難点なんですよね.
-
SenseGen: A Deep Learning Architecture for Synthetic Sensor Data Generation ↩
-
K. Altun, B. Barshan, and O. Tunc ̧el, “Comparative study on classifying human activities with miniature inertial and magnetic sensors,”Pattern Recogn., vol. 43, no. 10, pp. 3605–3620, Oct. 2010. [Online]. Available: http://dx.doi.org/10.1016/j.patcog.2010.04.019 ↩