0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

【CVPR2024】必要なパラメータのみ更新させる:Gradient-based Parameter Selection for Efficient Fine-Tuning

Posted at

1. 概要

本研究は、大規模な事前学習モデルを効率的に微調整するための新しい手法「勾配ベースのパラメータ選択(GPS)」を提案しています。GPSは事前学習モデルから重要なパラメータのみを選択し、それらだけを微調整することで、追加パラメータを導入せずに高い性能を達成します。実験では、FGVCで3.33%、VTABで9.61%の精度向上を、事前学習モデルのわずか0.36%のパラメータ調整で実現しました。また、医用画像セグメンテーションタスクでも大幅な改善を示し、様々なモデルアーキテクチャに適用可能な汎用性も実証しています。

2. 研究背景と課題

近年、大規模な事前学習モデルを様々なダウンストリームタスクに適応させる手法が一般的になっています。しかし、モデルサイズの増大に伴い、全パラメータを微調整することが計算コストとメモリ使用の観点から非現実的になってきました。

IMG_1370.jpeg

図1: 既存のPEFT手法と提案手法GPSの比較

図1に示すように、既存のパラメータ効率の良い微調整(PEFT)手法には以下の課題がありました:

  1. 追加パラメータの導入:Adapterやプロンプトチューニングなどの手法は、モデルに新たなパラメータを追加します。
  2. モデル依存性:特定のアーキテクチャに特化した設計が必要で、汎用性に欠けます。
  3. 計算オーバーヘッド:追加パラメータにより、学習や推論時の計算コストが増加します。

これらの課題に対して、本研究では追加パラメータを導入せず、モデルアーキテクチャに依存しない新しいPEFT手法を提案します。

3. 提案手法の詳細説明

勾配ベースのパラメータ選択(GPS)は、以下の2段階で構成されます:

  1. パラメータ選択
  2. マスクされた微調整

3.1 パラメータ選択

GPSの核心は、事前学習モデルから重要なパラメータを選択する方法にあります。具体的には、各ニューロンの入力接続から勾配値が最も高いトップKを選択します。

IMG_1371.jpeg

図3: GPSの全体的なパイプライン

選択プロセスは以下の通りです:

  1. ダウンストリームタスクの損失関数に対する勾配を計算:

    $$\nabla L_{D_t}(\Theta) = \left[\frac{\partial L}{\partial w_1} \cdots \frac{\partial L}{\partial w_N}\right]^T$$

  2. 各ニューロンについて、入力接続の中から勾配値が最も高いトップKを選択

この方法には以下の利点があります:

  • 勾配方向は損失関数の最速の変化を示すため、効率的な微調整が可能
  • ネットワーク全体から重要なパラメータを選択できる
  • モデルアーキテクチャに依存しない

また、GPSはスパース正則化された微調整と等価であることも示されています:

$$L(\Theta') + \lambda|\Theta' - \Theta|_0$$

これにより、全体の微調整よりも優れた汎化性能が期待できます。

3.2 マスクされた微調整

パラメータ選択後、選択されたパラメータのみを更新し、他は凍結します。具体的には、二値マスク$M_j$を使用して重み行列$W_j$を更新します:

$$W_j \leftarrow W_j - \epsilon\nabla L(W_j) \odot M_j$$

ここで、$\odot$はアダマール積を表します。

この方法により、追加パラメータを導入せずに効率的な微調整が可能になります。

4. 評価実験と結果

提案手法GPSの有効性を検証するため、様々なデータセットとモデルアーキテクチャで実験を行いました。

4.1 画像分類タスク

IMG_1372.jpeg

図2: VTAB-1k (a) とFGVC (b) ベンチマークにおける性能比較

図2は、VTAB-1kとFGVCベンチマークでの性能比較を示しています。GPSは両ベンチマークで最高性能を達成し、特に:

  • VTAB-1k:平均精度75.18%(次点のSPT-LoRAは74.07%)
  • FGVC:平均精度91.78%(次点のSSFは90.72%)

これらの結果は、事前学習モデルのわずか0.25%〜0.77%のパラメータを調整するだけで達成されています。

4.2 セマンティックセグメンテーション

医用画像セグメンテーションタスク(ポリープセグメンテーション)でも評価を行いました:

Method mDice (↑) mIoU (↑) Params. (M)
Full 71.1 55.7 93.8
GPS 88.1 72.5 4.22

GPSは全体の微調整と比較して、mDiceで17%、mIoUで16.8%の大幅な改善を示しながら、パラメータ数を大幅に削減しています。

4.3 異なるアーキテクチャでの評価

ViT、Swin Transformer、ConvNeXtなど、異なるアーキテクチャでGPSの汎用性を検証しました。全てのアーキテクチャで一貫して高い性能を示し、モデルに依存しない手法であることを実証しています。

5. 結論と今後の展望

本研究では、勾配ベースのパラメータ選択(GPS)という新しいPEFT手法を提案しました。GPSは以下の特長を持ちます:

  1. 追加パラメータを導入せず、モデル構造を変更しない
  2. 様々なモデルアーキテクチャに適用可能
  3. 高い性能と効率性を両立

今後の課題としては、タスク間でのパラメータ共有を活用したマルチタスク学習への拡張が挙げられます。また、より多様なドメインやタスクでの検証も必要です。

GPSは大規模モデルの効率的な適応を可能にし、計算資源の削減や炭素排出量の低減に貢献する可能性があります。今後、自然言語処理や音声認識など、他の分野への応用も期待されます。

参考文献

  1. Zhang, Z., Zhang, Q., Gao, Z., Zhang, R., Shutova, E., Zhou, S., & Zhang, S. (2024). Gradient-based Parameter Selection for Efficient Fine-Tuning. arXiv preprint arXiv:2312.10136.
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?