0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

ぼっち論文サーベイメモAdvent Calendar 2023

Day 11

11日目:Predicting Human Eye Fixations via an LSTM-based Saliency Attentive Model(2018)

Posted at

Predicting Human Eye Fixations via an LSTM-based Saliency Attentive Model(Marcella, 2013)

概要

この論文では、神経の注意メカニズム、特に注意型畳み込み長期短期記憶ネットワーク(Attentive Convolutional Long Short-Term Memory network: Attentive ConvLSTM)を組み込むことで、正確な顕著性マップを予測する新しいモデルを紹介している。このモデルは、人間の視線固定の典型的な中心バイアスを克服することを目的としており、公開されている顕著性予測データセットにおいて、現在の最先端技術を凌駕している。著者らはまた、彼らの手法と事前に訓練されたモデルのソースコードも公開している。本論文では、関連する研究、顕著性予測へのディープラーニング技術の使用、および提案された顕著性注意モデル(SAM)のアーキテクチャについて議論し、モデルのコンポーネントとそのトレーニングプロセスの詳細な概要を提供する。著者らはまた、彼らのモデルを他の既存の顕著性手法と比較し、彼らのソリューションのユニークな特性を強調している。論文では、彼らのモデルによって予測された顕著性マップの視覚的な例を含み、一般に利用可能なベンチマークデータセット上での提案アーキテクチャの包括的な評価を提供し、予測における有意な改善を実証する。著者はまた、顕著性予測アーキテクチャへの注意力モデルの組み込み、視線固定のバイアスを学習するネットワークの能力、予測結果の大幅な改善など、彼らの研究の貢献についても議論する。本稿は、提案されたモデルの性能と、将来の研究と応用の可能性についての考察で締めくくられている。

image.png

主な貢献は何か?

論文「LSTMに基づく顕著性注意モデルによる人間の視線予測」の主な貢献は以下の通りである:

1.注意モデルの組み込み: 本論文では、正確な顕著性マップを予測するために、注意型畳み込み長短期記憶ネットワーク(Attentive ConvLSTM)を組み込んだ新しいアーキテクチャを提案する。このモデルは、予測を向上させるために、異なる空間位置に順次焦点を当てることができ、顕著性予測アーキテクチャに注意力モデルを組み込んだ最初のものの一つとなる。

2.視線固定のバイアスの学習:このネットワークは、人間の視線固定のバイアスを学習することができる。これは、視線固定のバイアスをモデルが自動的に学習し、適応することを可能にする重要な貢献である。

3.パフォーマンスの向上: 提案されたソリューションは、SALICONデータセットにおいて現在の技術水準を大幅に上回り、MIT300データセットとCAT2000データセットにおいて最先端の結果を達成し、競争力のある汎化特性を実証した。

また、本論文では、手法と事前学習済みモデルのソースコードを公開し、研究コミュニティが提案モデルを再現・構築できるよう貢献する。

提案されたモデル

この研究論文で提案されたモデルはSAM(Saliency Attentive Model)と呼ばれ、注意型畳み込み長期短期記憶ネットワーク(Attentive ConvLSTM)を組み込んだアーキテクチャである。この提案の主な新規性は、テンソルの異なる領域に選択的にアテンションすることで、異なる位置の顕著性特徴を再帰的に処理するアテンション畳み込みモデルである。このモデルは、入力画像から抽出された特徴のスタックを入力として受け取り、学習された事前モジュールに入力する特徴マップの洗練されたスタックを生成する。LSTMは内部状態を逐次的に更新することで動作し、入力の異なる領域に選択的にアテンションするためのアテンション・マップが生成される。このモデルには、人間の目の固視に存在する中心バイアスを捕捉するための学習済み事前モジュールも含まれる。さらに、このアーキテクチャは、畳み込みフィルタが動作するスケールとパラメータ数を維持しながら、CNNの出力解像度を向上させるために、拡張畳み込みネットワークを組み込んでいる。提案モデルは、様々な顕著性メトリクスのバランスの取れた組み合わせである新しい損失関数を用いて学習され、最先端の性能を提供する。本論文では、LSTM、学習された事前モジュール、拡張畳み込みネットワークを含むモデルアーキテクチャの詳細な説明と、使用される損失関数と評価指標を提供する。

image.png

既存モデルとの比較結果

SAM-VGGモデルとSAM-ResNetモデルのSALICON、MIT1003、CAT2000検証セットでのアブレーション分析を研究論文で示す。分析では、プレーンCNN、拡張畳み込みネットワーク、アテンティブConvLSTM、学習済みプリア、およびこれらのコンポーネントの様々な組み合わせなど、様々な構成のモデルの性能を比較する。分析に用いた評価指標は、CC(相関係数)、sAUC(シャッフルAUC)、AUC(曲線下面積)、NSS(正規化スキャンパス顕著性)である。結果は、異なるデータセットにわたるモデルの全体的な性能に対する各コンポーネントの影響を示している。例えば、Dilated Convolutional Network、Attentive ConvLSTM、Learned Priorsの組み合わせは、評価メトリクスの高い値によって証明されるように、個々のコンポーネントと比較して性能の向上を示す。この分析により、異なるモデル構成の有効性と、それらの顕著性予測への貢献についての洞察が得られる。

image.png

image.png

この研究の限界は何か?

この研究の限界は、検索結果には明示されていない。したがって、論文の内容から、潜在的な限界は、多様な実世界のシナリオやデータセットに対する提案モデルの一般化である可能性がある。本論文は、公的な顕著性予測データセットにおいて競争力のある性能を実証しているが、様々なドメインやデータ分布におけるモデルの現実世界での適用可能性と頑健性は、考慮すべき重要な側面であろう。さらに、実用的なアプリケーションに対する提案モデルの計算効率とスケーラビリティは、もう一つの潜在的な制限となり得る。

所感

それまでのCNNベースのものと異なり、LSTMを用いて時系列性が考慮されたモデル。動画で学習することで制度が上がっているようだが、例示された結果画像からは時系列性を考慮することのメリットが今1つ伝わってこない。急激な人の動きなど動画ならではの難しさを含む例だとどうなるか見てみたいと思った。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?