0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

生物物理屋がファインチューニングに挑戦してみた話その2

Last updated at Posted at 2024-12-17

はじめに

この記事は「ただただアウトプットを癖付けるための Advent Calendar 2024」に投稿した記事です。

最初の記事にも書いた通り、私は生物物理の実験を専門にしている研究者です。
最近はデータ解析のため機械学習のコード開発も行っており、幸いにもその成果がNeurIPSに採択されました

前回の記事から、LLMのファインチューニングに挑戦しています。
今回はその続きとして、自然言語処理の章から、類似文章検索のファインチューニングに関するレシピを体験してみることにしました。

関連記事

前の記事 「生物物理屋がファインチューニングに挑戦してみた話その1

次の記事「生物物理屋がファインチューニングに挑戦してみた話その3

参考書

今日から使えるファインチューニングレシピ AI・機械学習の技術と実用をつなぐ基本テクニック

githubにリポジトリがあります。

今回の目標

類似文章検索のファインチューニングに関するレシピを体験してみる

タスク

日本語BERTであるbert-base-japanese-v3を使って、テストデータでファインチューニングする

やったこと

リポジトリのReadMeから、類似文章検索の学習用jupyter notebookのところにあるopen in colabをクリックして、Colabで開きました。
セッションをGPU使用に変更し、セルを実行していきます。

途中でweight & biasesのアカウントを作成し、APIキーを取得して、セルに入力しました。

その後はすんなりと回りました。

モデルはColabのストレージに保存されます。

さらに、評価用jupyter notebookからセルをコピーして、継続して走らせました。
類似度スコアの予測ができていることが確認できました。

追加で、ファインチューニング前のモデルでも評価をおこなってみました。
類似度スコアは算出されたものの、ほとんど定数(1)であり、まったく予測ができていないことがわかりました。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?