現状
- GANだとkerasからtensorboardを使っている例が少ない
- GANだとmodel.fitを使わないで実装している例が多い
- 過去の記事はtf1を取り扱っているものが多い
- 最新の記事はkerasで使ってる例が多い
- マジックコマンドとか入ってきてわけわかめ
ここら辺を参考にしていた
https://lsifrontend.hatenablog.com/entry/2019/02/27/201856
https://qiita.com/Mco7777/items/2b76aba1bae35f2623ea#_reference-ae8817c269849cbd1b91
https://qiita.com/tomo_makes/items/b3c60b10f7b25a0a5935
https://qiita.com/uosansatox/items/b552c9c4d8f1cebbf044
https://deepage.net/tensorflow/2017/04/25/tensorboard.html
https://qiita.com/agumon/items/114da6921c5dc4f7d7f9
けど、環境が違うのであんまり参考にならなかった。
ということで行き詰っていたんだけど進捗があったので投稿
#__doc__にexampleがあってわかりやすかった
tf.summary.__doc__
で出てきた例が自分の参考にしたコードに近くて役に立った
writer = tf.summary.create_file_writer("/tmp/mylogs")
@tf.function
def my_func(step):
# other model code would go here
with writer.as_default():
tf.summary.scalar("my_metric", 0.5, step=step)
for step in range(100):
my_func(step)
writer.flush()
0.5のところをモニターしたい値に変えればOK
tf.summary.scalar("loss", loss, step=step)
"""
(名前,縦軸の値,横軸の値)
"""
マジックコマンドも加えると
writer = tf.summary.create_file_writer("/log")
@tf.function
def my_func(step):
# other model code would go here
with writer.as_default():
tf.summary.scalar("loss", loss, step=step)
%tensorboard --logdir=/logs
for step in range(100):
my_func(step)
writer.flush()
#所感
記事には書いてないけど、ログファイルの場所や書き方がいろいろあったのが一番詰まっていたところかもしれない
kerasで楽々tensorboardしたかった( ˘ω˘ )
もっといい方法あったら教えてください。