2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

【Semantic Segmentation】ICNet : ICNetはなぜ速いのか?

Last updated at Posted at 2020-12-04

新規性

![image.png](https://qiita-image-store.s3.ap-northeast-1.amazonaws.com/0/482094/2671c7e4-f341-faf5-9c5a-5fc2466945aa.png) 一番下の段のEncoder-Decoder Modelで精度の良いSegmentationをするのに多くのLayerが必要になる。 これは計算コストが無駄だと考え、1/2,1/4にDownsampleした画像を畳み込み、結合する事で計算量を小さいまま精度の良い結果を得る事が出来る。

紫色の線はTrainning時のみに使われ、Groundと比較してlossをそれぞれのサイズ毎に計算している。このように中間でlossを計算する事により安定したTrainingが行われる事が一般的に知られている。

image.png

CFF(Cascade Feature Fusion)は図のような設計になっており、紫の線がTraining時に適応されるlossを計算する為のpipelineである。Classifier ConvでSemantic Mapを推定しLABEL(Ground Truth)と比較してlossを計算している。

F1(低解像度)とF2(高解像度)のfeature mapを前処理を行い、足し合わせた後にReLUをすることにより情報の結合を行っている。

*Dilated Conv =>upsampleしたsparseなFeature MapをDenseにする為の処理
*Projection Conv =>F1とchannel数を一致させる為の1x1 convolution

個人的にはSUMではなくconcatenateした方が精度上がる気がするのだが、計算コストの問題だろうか

結果

image.png

精度もそこそこで早い!

結論

downsampleしてから畳み込む事でスピードを上げ、高解像度のFeature Mapに足し合わせる事で精度を担保している。

シンプルで速くて精度がそこそこだから実用向きなネットワークだと思うa

参考文献

ICNet for Real-Time Semantic Segmentationon High-Resolution Images https://hszhao.github.io/papers/eccv18_icnet.pdf
2
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?