概要
この記事では、ICCV2025のOOD (Out of Distribution) 論文を紹介します。
全体傾向
ICCV2025では、基盤モデルを使ってOOD検出する方法が多く見られました。
Activation Subspaces for Out-of-Distribution Detection
- 概要:OOD検知の改善
- キモ:分類Headの重みをSVDし、非決定的な部分と決定的な部分に分ける。
非決定的な部分は教師とのコサイン類似度で、決定的な部分はshaping method (SCALEなど) を使う。
FEVER-OOD: Free Energy Vulnerability Elimination for Robust Out-of-Distribution Detection
- 概要:自由エネルギーによるOODの改良
- キモ:Headの重み行列の最小特異値が小さいとIDとOODが似た特徴になる脆弱性がある。レイヤを追加して最小特異値が大きくなるように正則化して学習することでこの問題を解決する
Equipping Vision Foundation Model with Mixture of Experts for Out-of-Distribution Detection
- 概要:基盤モデルでOOD検出する方法
- キモ:DINOv2そのままでもOOD検出できる特徴空間を備える。IDでFine-tuneすればより検出力が上がる方法を提案。意味空間が広い場合は、MoEで特徴空間を分離することによって性能改善する
Synthesizing Near-Boundary OOD Samples for Out-of-Distribution Detection
- 概要:事前学習済みモデルでOOD検知する方法で、ID・OOD境界に近いデータを合成してFine-tuneするもの
- キモ:Fig. 2の上段のような拡散モデルを考え、EnergyなどのOODスコアの勾配から合成データ生成
Diagnosing Pretrained Models for Out-of-distribution Detection
- 概要:IDの精度とOODの精度の関係を調査。学習時のデータ拡張を修正してIDとOODの精度を高める方法を提案
- キモ:Labelベースのデータ拡張(Label SmoothingやMixup)でID/OOD分離性能が悪くなる
- AugDeleteではLabel SmoothingやMixupなしでFine-tuneすることで影響を除去する
- AugReviseでもLabelベースの拡張をなくすようにFine-tuneする
FA: Forced Prompt Learning of Vision-Language Models for Out-of-Distribution Detection
- 概要:VLMを用いたOOD検出
- キモ:IDの特徴をより多様で豊かに学習するforced promptによってIDの識別能力を上げ、OOD検知性能を上げる
NegRefine: Refining Negative Label-Based Zero-Shot OOD Detection
- 概要:CLIPなどのVLMからのZero-shot OODで、負例ラベルベースの方法で、IDを負例に間違える問題の解決
- キモ:負例集合から、誤認識の原因となるIDの下位カテゴリや固有名詞を除去するフィルタリング(Fig. 1)機構を入れる。スコアに(2)式を導入し、IDが「(ID) and (OOD)」に反応する場合は救えるようにする
Gradient Short-Circuit: Efficient Out-of-Distribution Detection via Feature Intervention
- 概要:勾配情報を用いたOOD検知
- キモ:IDはlogitsの勾配が比較的一貫しているが、OODはバラバラである。$\mathrm{F}'$の決め方で勾配の影響を減らすことでOODがOODスコアに与える影響を減らす