0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

言語処理100本ノック2020 (96, 97)

Last updated at Posted at 2023-11-18

はじめに

本記事は言語処理100本ノックの解説です。
100本のノックを全てこなした記録をQiitaに残します。
使用言語はPythonです。

今回は第10章: 機械翻訳(96, 97)の解答例をご紹介します。

96. 学習過程の可視化

Tensorboardなどのツールを用い,ニューラル機械翻訳モデルが学習されていく過程を可視化せよ.可視化する項目としては,学習データにおける損失関数の値とBLEUスコア,開発データにおける損失関数の値とBLEUスコアなどを採用せよ.

コード
%load_ext tensorboard
%tensorboard --logdir logs

!fairseq-train "[PATH]/processed/" 
  --task translation \
  --arch transformer \
  --tensorboard-logdir "logs" \
  --source-lang ja --target-lang en \
  --max-epoch 300 \
  --lr 1e-5 \
  --batch-size 32 \
  --valid-subset valid,train \
  --optimizer adam \
  --save-interval 2 \
  --eval-bleu \
  --max-valid-steps 300 \
  --save-dir "[PATH]/model-96/" \
  --restore-file  "[PATH]/model-96/checkpoint_last.pt" \
| tee -a "[PATH]/log-96/train.log"

出力結果
image.png

コメント
学習データのBLEUスコアの可視化に苦労しました。Tensorboardのbleuの項目にはtrainは表示されていますが、値が妙に低いです。これはmax_valid-stepsを指定しているのが原因ですが、指定しないとtrainのbleu計算に十数時間かかります。
学習されていく過程の可視化なので、lossと同様に増減が分かればいいかなと思っています。

97. ハイパー・パラメータの調整

ニューラルネットワークのモデルや,そのハイパーパラメータを変更しつつ,開発データにおけるBLEUスコアが最大となるモデルとハイパーパラメータを求めよ.

コード
!touch "[PATH]/model-97/ParameterLog.txt"

#ハイパーパラメータ
#arcs = ["fconv", "fconv_iwslt_de_en", "fconv_wmt_en_ro", "fconv_wmt_en_de", "fconv_wmt_en_fr",'transformer_tiny', 'transformer', 'transformer_iwslt_de_en', 'transformer_wmt_en_de', 'transformer_vaswani_wmt_en_de_big', 'transformer_vaswani_wmt_en_fr_big', 'transformer_wmt_en_de_big', 'transformer_wmt_en_de_big_t2t', 'transformer_align', 'transformer_wmt_en_de_big_align', 'lstm', 'lstm_wiseman_iwslt_de_en', 'lstm_luong_wmt_en_de', 'lightconv', 'lightconv_iwslt_de_en', 'lightconv_wmt_en_de', 'lightconv_wmt_en_de_big', 'lightconv_wmt_en_fr_big', 'lightconv_wmt_zh_en_big', 'fconv_self_att', 'fconv_self_att_wp']
arcs = ['lstm', 'transformer']
dropouts = [0, 0.5]
weight_decays = [0, 0.01]

best_bleu = 0
best_arc = ""
best_dropout = 0
best_weight_decay = 0

! mkdir "./97content"
for dropout in dropouts:
  for weight_decay in weight_decays:
    for arc in arcs:
      ! rm -r "./97content"
      ! mkdir "./97content"
      !fairseq-train "[PATH]/processed/" \
        --task translation \
        --arch $arc \
        --source-lang ja --target-lang en \
        --max-epoch 3 \
        --lr 1e-5 \
        --batch-size 32 \
        --optimizer adam \
        --save-interval 3 \
        --dropout $dropout \
        --save-dir "./97content" \
        --weight-decay $weight_decay
      #翻訳結果を出力
      !fairseq-generate "[PATH]/processed/" \
        --path "./97content/checkpoint_last.pt" \
        --task translation \
        --gen-subset test \
      | tee >(grep "^H" | cut -f3 > "./97content/test-transform.txt")\
      | grep "^T" | cut -f2 >  "./97content/test-true.txt"
      #bleuを計算
      score_text = !fairseq-score \
        --sys  "./97content/test-transform.txt"\
        --ref  "./97content/test-true.txt"
      bleu_score = float(score_text[-1].split(",")[0].split(" ")[-1])
      print(bleu_score)
      with open("[PATH]/model-97/ParameterLog.txt", "a+") as f:
        f.write(arc +", "+ str(dropout) +", "+ str(weight_decay) + " :" + str(bleu_score)+"\n")

      if bleu_score > best_bleu:
        best_bleu = bleu_score
        best_arc = arc
        best_dropout = dropout
        best_weight_decay = weight_decay

temp = "[PATH]/model-97/" + best_arc + "_" + str(best_dropout) + "_" + str(best_weight_decay) + ".pt"
!cp "./97content/checkpoint_best.pt" $temp

出力結果
arch, dropout, weight_decay: bleu
image.png

コメント
fairseqで機械翻訳モデルを構築できるリストはコメントアウトしています。GPUと電気を無尽蔵に使える方は回してみてください。

他章の解答例

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?