時系列データに対して広く一般化可能な事前学習をする戦略です。
こちらを見て関心を持ちました。
画像の自己教師あり学習については、以前こんなのを書いています。
基本情報
項目 | 内容 |
---|---|
タイトル | Self-Supervised Contrastive Pre-Training For Time Series via Time-Frequency Consistency |
著者 | Xiang Zhang, Ziyuan Zhao, Theodoros Tsiligkaridis, Marinka Zitnik (Harvard University, MIT Lincoln Laboratory) |
NeurIPS | https://openreview.net/forum?id=OJ4mMfGKLN |
ariXiv | https://arxiv.org/abs/2206.08496 |
ariXiv-vanity | https://www.arxiv-vanity.com/papers/2206.08496/ |
github | https://github.com/mims-harvard/TFC-pretraining |
project | https://zitniklab.hms.harvard.edu/projects/TF-C/ |
どんなもの?
自己教師あり対称学習を使って、時系列データに対して広く一般化可能な事前学習をする戦略です。
動機
-
時系列の広く一般化可能な表現を学習することは根本的に困難な問題
- ドメインの異なるデータセットへの転移学習が難しい
- データセット間の時間ダイナミクスの大きな変動、
- 信号の意味の違い
- システム要因
- 大規模な教師付きデータが必要
- 医療分野なら専門家の判定が必要
- ドメインの異なるデータセットへの転移学習が難しい
-
一方で他分野は
- CV: 初期神経層がエッジや形状など画像スタイルやタスクに関係なく普遍的な視覚要素を捉えるという知見
- NLP:文法、意味論 といった共通部分
アプローチ
信号理論によれば、時系列データは時間領域でも周波数領域でも等価に表現できる。
この不変な性質を使って効果的な事前学習を行う。
先行研究と比べてどこがすごい?
-
完全にラベル付けされていない事前学習データセットで使用することができる。
-
異なる種類のセンサーや計測値を持つ時系列データセットを含む4つのシナリオにおいて、効果的な転移を提供。
- ドメインギャップが大きい場合(例えば、事前学習と微調整のデータポイントが異なる特徴空間で与えられたり、異なる意味的意味を持つ場合)でも、強力な性能を達成することが示された。
技術や手法のキモはどこ?
-
時間表域での対照学習
-
周波数領域での対照学習
-
時間領域での表現と周波数での表現の一貫性
どうやって有効だと検証した?
議論はある?
Appendix K によると事前学習に複数のデータセットを組み合わせることはうまくいっていない模様。
次読むべき論文は?
?