Stochastic Gradient Descent
ではランダムに学習データのセットから選択する。
代わりにQMC(Halton Sequence)を使ってデータセットからの選択を行うと、積分が速く収束するように、学習も早く収束するような気がする。
そういう論文は今のところ見つかっていない。
batch_xs, batch_ys = mnist.train.next_batch(100)
上記のコードの代わりにHanlton Sequenceを組込めばいいのではと思う。
(追記 2016/11/04)
以下の記事で試した。