11
14

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 5 years have passed since last update.

Rでコンピュータービジョン

Last updated at Posted at 2017-08-24

1. Introduction

 Computer Vision APIの利用が普及し、Python関連の投稿記事からも、先進的な物体認識・分類が比較的容易に実装できるようになってきていることが伺える。
 {magick}や{EBImage}、{imager}など、Rにも様々な画像解析パッケージが存在し、他の画像処理ソフトウェアと同様に、簡単なフィルタリングやリサイズなどが可能となっている。

一般的な画像処理パッケージ

パッケージ名 主な機能
magick フォーマット変換、抽出
imager 補完、リサイズ、ワーピング、フィルタリング、フーリエ変換、モルフォロジー演算、ノイズ除去、領域分割
EBImage フィルタリング、モルフォロジー演算、オブジェクト認識、ラベリング
OpenImageR エッジ検出、抽出

領域特化の画像処理

パッケージ名 領域
adimpro スムージング
radiomics テクスチャー解析
fftw フーリエ変換
oro.dicom/oro.nifti 脳画像
zooimage プランクトン
wvtool
spatstat 空間点過程

Rインターフェイス

パッケージ名 対象
ROpenCVLite OpenCV
tensorflow Tensorflow
keras keras

 Rでも、簡単に画像認識や分類ができないかと色々探していたところ、[BNOSAC](http://www.bnosac.be) が提供する画像解析パッケージが[R-bloggers](https://www.r-bloggers.com/computer-vision-algorithms-for-r-users/)で紹介されていたのでトレースする。(https://github.com/bnosac/image)

BNOSACが提供するパッケージ

パッケージ名 主な機能
image.CornerDetectionF9 FAST-9によるコーナーの検出
image.CannyEdges Cannyアルゴリズムによるエッジ検出
image.LineSecmentDetector 線分検出
image.ContourDetector 等高線の検出
image.dlib SURF(Speeded up robust features)、HOG特徴量(histgram of oriented gradients features)
image.darknet AlexNet、Darknet、VGG-16、GoogleNet、Darknet16といったディープラーニングモデルを用いた画像分類。YOLOによる物体認識。

以下、資料に沿って説明。

2. Install Packages

はじめに、必要なパッケージをインストール。

install.packages("devtools")
install.packages("dlib")

devtools::install_github("bnosac/image", subdir = "image.CornerDetectionF9", build_vignettes = TRUE)
devtools::install_github("bnosac/image", subdir = "image.LineSegmentDetector", build_vignettes = TRUE)
devtools::install_github("bnosac/image", subdir = "image.ContourDetector", build_vignettes = TRUE)

# Reqiring libpng and fftw3 to be installed
# devtools::install_github("bnosac/image", subdir = "image.CannyEdges", build_vignettes = TRUE)

devtools::install_github("bnosac/image", subdir = "image.dlib", build_vignettes = TRUE)
devtools::install_github("bnosac/image", subdir = "image.darknet", build_vignettes = TRUE)

※image.CannyEdgesのインストールにはlibpngとfftw3が必要とのこと。
※Ubuntuでのインストール方法は以下の通り。
 sudo apt-get install libpng-dev fftw3 fftw3-dev pkg-config

※Win環境でのエラーメッセージは以下の2箇所。解決策があったら教えて下さい。

pkg-config: not found

canny.h:8:19: fatal error: fftw3.h: No such file or directory

3. Corner Detection F9

パッケージ内に準備された画像のデータを読み込む。画像はPGMフォーマット。

library(pixmap)
library(image.CornerDetectionF9)

## Read in a PGM grey scale image
im_chairs <- read.pnm(file = system.file("extdata", "chairs.pgm", package = "image.CornerDetectionF9"), cellres = 1)

plot(im_chairs)

1.png

コーナーの検出は、周囲のいくつかのピクセルが、指定した閾値よりも明るい、もしくは暗い場合にコーナーと見なすようなアルゴリズム。こちらを参照。

## Detect corners
corners <- image_detect_corners(im_chairs@grey*255,
                                threshold = 100,
                                suppress_non_max = TRUE)

## Plot the image and the corners
plot(im_chairs)
points(corners$x, corners$y, col = "red", pch = 20, lwd = 0.5)

2.png

4. Convert jpg to PGM file

大抵、処理対象の画像はPGMフォーマットではない。
PGMファイルへの変換には、{magick}パッケージを用いる。

library(magick)

## Convert jpg to PGM file using the magick package
x <- image_read(system.file("extdata", "hall.jpg", package="image.CornerDetectionF9"))
x <- image_convert(x, format = "pgm", depth = 8)

## Save the PGM file
f <- tempfile(fileext = ".pgm") # 
image_write(x, path = f, format = "pgm")

## Read in the PGM grey scale image
im_hall <- read.pnm(file = f, cellres = 1)
plot(im_hall)

3.png

corners_hall <- image_detect_corners(im_hall@grey*255,
                                threshold = 25,
                                suppress_non_max = TRUE)

plot(im_hall)
points(corners_hall$x, corners_hall$y, col="red", pch = 20, lwd = .5)

4.png

5. Detect Edges

使おうと思ったらインストールに失敗していたので後回し。

  • Canny Edge detector
  • ノイズ除去 > 勾配が極大となる位置を検出 > 閾値でエッジを定義 > コネクションがない線を除去
library(pixmap)
library(image.CannyEdges)

## Use the PGM grey scale image(read abobe)
## Detect edges
edges <- image_canny_edge_detector(image@grey*255,
                                   s = 2,
                                   low_thr = 3,
                                   high_thr = 10)

## Plot the edges
plot(edges)


6. Detect Lines & Contours

グレースケールイメージの勾配とその向きでグループ化し、そのグループをさらに線で囲むことで線分を抽出する。

library(pixmap)
library(image.LineSegmentDetector)

## Read in the PGM file
im_piree <- read.pnm(file = system.file("extdata", "le-piree.pgm", package="image.LineSegmentDetector"), cellres = 1)

plot(im_piree)

5.png

## Detect the lines
linesegments <- image_line_segment_detector(im_piree@grey*255)
linesegments

## Plot the image + add the lines in red
plot(im_piree)
plot(linesegments, add=TRUE, col = "red")

6.png

7. Contour Detector

画像中の等高線を検出する。

Unsupervised contour detector
Rafael Grompone von Gioi, and Gregory Randall, Image Processing On Line, 6 (2016), pp. 233-267

library(pixmap)
library(image.ContourDetector)

imagelocation <- system.file("extdata", "image.pgm", package="image.ContourDetector")
im_car <- read.pnm(file = imagelocation, cellres = 1)

x <- im_car@grey * 255
contourlines <- image_contour_detector(x)
contourlines

plot(im_car)
plot(contourlines, add = TRUE, col = "red")

7.png

8. Speed up robust features (SURF)

Speed up robust features(SURF)は、SHIFTなどと同様に特徴量検出のアルゴリズムの1つであり、物体の移動や変形後における認識や追跡、3D再構築などに応用される。アルゴリズムの詳細はこちら。image.dlib::image_surf()では、画像から64次元の局所特徴量が検出される。

library(image.dlib)

## File path
f <- system.file("extdata", "cruise_boat.bmp", package="image.dlib")

## Detect features using SURF
surf_blobs <- image_surf(f, max_points = 10000, detection_threshold = 50)
str(surf_blobs)
## List of 8
##  $ points       : num 296
##  $ x            : num [1:296] 232 237 282 374 186 ...
##  $ y            : num [1:296] 402 371 367 382 416 ...
##  $ angle        : num [1:296] -2.99 2.31 2.14 -1.43 1.42 ...
##  $ pyramid_scale: num [1:296] 5.27 2.76 2.97 2.94 2.96 ...
##  $ score        : num [1:296] 959 630 596 549 526 ...
##  $ laplacian    : num [1:296] -1 -1 -1 -1 -1 -1 -1 -1 -1 1 ...
##  $ surf         : num [1:296, 1:64] -0.0635 0.1435 0.1229 0.0496 -0.0501 ...

今回の画像からは296この局所特徴量が抽出された。それらの座標、角度なども格納されている。

## Plot the points
library(imager)
library(magick)

im_boat <- image_read(path = f) 
plot(magick2cimg(im_boat), main = "SURF points")
points(surf_blobs$x, surf_blobs$y, col = "red", pch = 20)

8.png

動画や複数の画像でマッチングや認識をする際は、image_surf()で特徴量を抽出した後で、例えば{rflann}パッケージのNeighbour()でk-nearest-neighboursなどを行い比較する。

9. Histogram of oriented gradients(HOG)

HOG特徴量の抽出を行う。人物の動作を認識する際に用いられることが多い。

## Detect features using HOG
hog_blobs <- image_fhog(f, cell_size = 8)
str(hog_blobs)

# 視覚化はそのうち。

10. Objects Detection

{image.darknet}では、You Only Look Once(YOLO)を用いた画像認識が可能となる。分類に関しては、AlexNet、DarkNet、VGG-16、Extraction、Darknet19などの既存のディープラーニングモデルで行う。

Description

Specify a model to be used in classification or object detection. For classification this consists of

  • model: the deep learning configuration file which was used to train the model
  • weights: the trained weights of the deep learning model
  • labels: a character vector of possible labels to classify an image - used during training

Available models are

  • classification: Alexnet, Darknet, VGG-16, Extraction(GoogleNet), Darknet19, Darknet19_448, Tiny Darknet trained on Imagenet
  • detection: YOLO, YOLO tiny trained on VOC and on COCO

10-1. Detection with tiny YOLO trained on VOC

library(image.darknet)

## Define the model 
yolo_tiny_voc <- image_darknet_model(
  type = "detect",
  model = "tiny-yolo-voc.cfg",
  weights = system.file("models", "tiny-yolo-voc.weights", package="image.darknet"),
  labels = c("aeroplane", "bicycle", "bird", "boat", "bottle", "bus", "car", "cat", "chair", "cow", "diningtable", "dog", "horse", "motorbike", "person", "pottedplant", "sheep", "sofa", "train", "tvmonitor")
)


## Find objects inside the image (reqire full path)
f <- paste0(getwd(),"/sp.jpg")
#image_darknet_detect(file=normalizePath("sp.jpg"), object = yolo_tiny_voc)
image_darknet_detect(file=f, object = yolo_tiny_voc)

im_predictions <- image_read(path = "predictions.png") 
plot(im_predictions)

9.png
Detectionの結果の画像はワーキングディレクトリに保存されている。
thresholdを設定することで、検出精度を調整可能。

image_darknet_detect(file=f, object = yolo_tiny_voc, threshold = 0.01, hier_threshold = 0.6)

im_predictions <- image_read(path = "predictions.png") 
plot(im_predictions)

10.png

他のモデルに関しては、weightsをダウンロードして利用可能。(?image_darknet_model)

10-2. Detection with tiny YOLO trained on COCO

## trained on COCO
coconames <- system.file(package="image.darknet", "include", "darknet", "data", "coco.names")
labels <- readLines(coconames)

#weights <- file.path(system.file(package="image.darknet", "models"), "tiny-yolo.weights")
#download.file(url = "http://pjreddie.com/media/files/tiny-yolo.weights", destfile = weights)
weights <- system.file(package="image.darknet", "models", "tiny-yolo.weights")

yolo_tiny_coco <- image_darknet_model(type = 'detect', 
 model = "tiny-yolo.cfg", 
 weights = weights, 
 labels = labels)

yolo_tiny_coco

## Find objects inside the image (reqire full path)
f <- paste0(getwd(),"/sp.jpg")
image_darknet_detect(file=f, object = yolo_tiny_coco, threshold=0.6)

im_predictions <- image_read(path = "predictions.png") 
plot(im_predictions)

11.png
失敗?

10-3. Classification with Darknet

## Define DarkNet model
model <- system.file("include", "darknet", "cfg", "tiny.cfg", package="image.darknet")
weights <- system.file("models", "tiny.weights", package="image.darknet") 
labels <- system.file("include", "darknet", "data", "imagenet.shortnames.list", package="image.darknet")
labels <- readLines(labels)

darknet_tiny <- image_darknet_model(type = "classify", model = model, weights = weights, labels = labels)
darknet_tiny

f <- system.file("include", "darknet", "data", "dog.jpg", package="image.darknet")

#library(magick)
im_dog <- image_read(path = f) 
plot(im_dog)

12.png

x <- image_darknet_classify(file = f, object = darknet_tiny)
x
## $file
## [1] "C:/Program Files/R/R-3.4.1/library/image.darknet/include/darknet/data/dog.jpg"
## 
## $type
##            label probability
## 1       malamute  0.18206641
## 2        dogsled  0.12255822
## 3     Eskimo dog  0.06975935
## 4         collie  0.04245654
## 5 Siberian husky  0.03541765

それらしい結果

参考

  1. BNOSAC http://www.bnosac.be
  2. R-bloggers https://www.r-bloggers.com/computer-vision-algorithms-for-r-users
  3. Computer Vision and Image Recognition algorithms for R users https://github.com/bnosac/image
  4. FAST Corner Detection -- Edward Rosten https://www.edwardrosten.com/work/fast.html
  5. Canny Edge detector https://en.wikipedia.org/wiki/Canny_edge_detector
  6. Unsupervised contour detector https://doi.org/10.5201/ipol.2016.175
  7. An Analysis of the SURF Method http://www.ipol.im/pub/art/2015/69/
11
14
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
11
14

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?