自分用メモですが・・・とりあえず本体の全コードはこちら
また参考になったページは原論文、新たなdata augmentation手法mixupを試してみたです。
ざっくりとアイデアは説明変数(x_1,x_2・・・・x_N)からベータ回帰で新しいデータを(x'_1,・・・x'_M)を作成するというものである(目的変数も同様)。論文によるとRobust性があがるとあるので基本的には過学習気味のデータによいようだ。それでirisとwineデータをKNNにて実験(精度にて比較)
iris
やる前 Test Accuracy: 0.9642857142857143
やった後 Test Accuracy: 0.9210526315789473
下がった・・・orz まぁ元々過学習も起こさない精度の高いモデルだとベータ分布の係数αを調整するのが割りと大変だった(ほぼ未チューニング)。
wine
やる前 Test Accuracy: 0.6666666666666666
やった後 Test Accuracy: 0.7333333333333333
結構精度はアップした。過学習気味なモデルにおいて、効果はありそうである。