4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

【YOLOv8】建築資材の物体検出 (パイプ編)

Last updated at Posted at 2023-08-28

はじめに

弊社では建築資材の自社利用以外にリースも行っています。
資材貸出時の入出庫のタイミングでその数を目視で数えたりして管理していますが、数え間違いや作業時間の問題から、ディープラーニングを応用して撮影した資材の画像から個数を自動的に算出する仕組みを検討してみました。

検出対象の資材

初回の今回は、基本的に形状どれも同じで比較的実装が簡単そうな単管パイプから試してみることにしました。
こんな感じの画像から、パイプの断面を検出して本数を数えるイメージです。

環境

  • BTO で購入したデスクトップマシン
  • このマシンに自前の GPU:RTX 3090 (24 GB) を装着
  • OS:Ubuntu 22.10
  • ライブラリ:YOLOv8 (ultralytics 8.0.143)

環境の具体的な構築方法はここでは割愛します。
特に難しい作業はありませんでした。

学習に使用するデータ

現場で撮影した 17 枚の写真を使用します。
iPhone で撮影した元の画像は解像度が高い (4032px × 3024px) のと、アノテーションソフトで開いた時に上下が逆になってしまうため、こちら の情報を参考に Exif 情報を反映し、1/4 にリサイズしました。
リサイズすると 1008px × 756px の画像サイズになります。

サンプルコード
import PIL.Image
import PIL.ImageOps
import numpy as np
import os


def exif_transpose(img):
    if not img:
        return img
    exif_orientation_tag = 274

    # Check for EXIF data (only present on some files)
    if hasattr(img, "_getexif") and isinstance(img._getexif(), dict) and exif_orientation_tag in img._getexif():
        exif_data = img._getexif()
        orientation = exif_data[exif_orientation_tag]

        # Handle EXIF Orientation
        if orientation == 1:
            # Normal image - nothing to do!
            pass
        elif orientation == 2:
            # Mirrored left to right
            img = img.transpose(PIL.Image.FLIP_LEFT_RIGHT)
        elif orientation == 3:
            # Rotated 180 degrees
            img = img.rotate(180)
        elif orientation == 4:
            # Mirrored top to bottom
            img = img.rotate(180).transpose(PIL.Image.FLIP_LEFT_RIGHT)
        elif orientation == 5:
            # Mirrored along top-left diagonal
            img = img.rotate(-90, expand=True).transpose(PIL.Image.FLIP_LEFT_RIGHT)
        elif orientation == 6:
            # Rotated 90 degrees
            img = img.rotate(-90, expand=True)
        elif orientation == 7:
            # Mirrored along top-right diagonal
            img = img.rotate(90, expand=True).transpose(PIL.Image.FLIP_LEFT_RIGHT)
        elif orientation == 8:
            # Rotated 270 degrees
            img = img.rotate(90, expand=True)

    return img


def load_image_file(file, mode='RGB'):
    # Load the image with PIL
    img = PIL.Image.open(file)

    if hasattr(PIL.ImageOps, 'exif_transpose'):
        # Very recent versions of PIL can do exit transpose internally
        img = PIL.ImageOps.exif_transpose(img)
    else:
        # Otherwise, do the exif transpose ourselves
        img = exif_transpose(img)
    img = img.convert(mode)
    
    return img


def main():
    CONVERTING = '/path/to/original'
    CONVERTED  = '/path/to/converted'

    for file in os.listdir(CONVERTING):
        if file.endswith('.jpg'):
            # exif Orientation
            img = load_image_file(os.path.join(CONVERTING, file))

            # 1/4にリサイズ
            width, height = img.size
            img = img.resize((int(width / 4), int(height / 4)))

            # 結果を保存
            img.save(os.path.join(CONVERTED, file))


if __name__ == '__main__':
    main()

次に YOLOv8 で学習するために指定サイズで切り抜きます。
YOLO は既定で 640px × 640px の画像サイズを入力としますので こちらこちら を参考にランダムに10枚ずつ切り抜きます。
訂正
入力画像を既定で 640px × 640px にダウンスケーリングするのが正しい理解でした。
学習データの水増しの意味でとりあえずこのまま進めましたが、厳密にはインスタンスサイズが実際と異なりモデルの性能は若干低下すると認識しています。

サンプルコード
import cv2
import random
import os
from tqdm import tqdm

crop_n = 10             # クロップする回数
crop_size = (640, 640)  # クロップする画像のサイズ (height, width)

CONVERTED = '/path/to/converted'
CROP = '/path/to/crop'


def main():
    file_list = os.listdir(DATA_DIR)

    for file in tqdm(file_list, total=len(file_list)):
        if file.endswith('.jpg'):
            image_name = os.path.join(DATA_DIR, file)   # フルパス
            file_name, file_extension = os.path.splitext(file)

            # ベース画像の読み込み
            image = cv2.imread(image_name)
            h, w = image.shape[:2]

            # 入力画像が crop_size より小さい場合
            if h < crop_size[0] or w < crop_size[1]:
                print(f'Image {image_name} is too small for cropping')
                continue

            # 連続切り抜き処理
            for i in range(crop_n):
                # 切り抜く際の始点 (左上)
                x = random.randint(0, w-crop_size[1])
                y = random.randint(0, h-crop_size[0])

                # 切り抜き処理
                cut_image = image[y:y+crop_size[1], x:x+crop_size[0], :]

                # 切り抜き画像を保存
                cv2.imwrite(CROP + '/' + file_name + '_' + str(i).zfill(3) + '.jpg', cut_image)


if __name__ == '__main__':
    main()

最終的には、165 枚の画像を用意し、以下のように分割しました。 画像枚数としてはだいぶ少ない方かと思います。
  • 訓練データ:103 枚
  • 検証データ:45 枚
  • テストデータ:17 枚

アノテーション

用意したデータにアノテーションを実施していきます。
アノテーションソフトとして labelImg の Windows 版 を使用します。
こんな感じでアノテーションしていきます。(labelImg の使用方法はここでは割愛します。)

訓練データと検証データのアノテーションで、1人で丸2日間かかりました。
画像によってはかなりの量のパイプが写っているものもあり、1時間もしないうちにマウスを持つ手の指が限界になります・・。

すべての画像をアノテーション完了後にインスタンス数 (バウンディングボックス数) を確認してると、1万ちょっとくらいでした。

サンプルコード
import os

def count_lines_in_file(file_path):
    with open(file_path, 'r', encoding='utf-8') as f:
        return len(f.readlines())


def main():
    DIR = '/path/to/labels'
    
    # ディレクトリ内の全てのファイルをリストアップ
    files = os.listdir(DIR)
    
    # テキストファイルのみをフィルタリング
    txt_files = [f for f in files if f.endswith('.txt')]
    
    total_lines = 0

    # 各テキストファイルの行数を合計
    for txt_file in txt_files:
        total_lines += count_lines_in_file(os.path.join(DIR, txt_file))
    
    print(f'インスタンス数: {total_lines}')


if __name__ == '__main__':
    main()

画像枚数は少ないものの、インスタンス数はそれなりに確保できたようです。

データの配置

用意したデータセットを以下のように配置します。

datasets
└── pipe
    ├── images
    │   ├── train
    │   │   ├── **.jpg
    │   │   └── **.jpg
    │   └── val
    │       ├── **.jpg
    │       └── **.jpg
    ├── labels
    │   ├── train
    │   │   ├── **.txt
    │   │   └── **.txt
    │   └── val
    │       ├── **.txt
    │       └── **.txt
    └── pipe.yaml

yaml ファイルはこんな感じです。

# Path
path: /path/to/datasets/pipe  # dataset root dir
train: images/train  # train images (relative to 'path') 
val: images/val  # val images (relative to 'path') 

# Classes
nc: 17  # number of classes
names: ['dog', 'person', 'cat', 'tv', 'car', 'meatballs', 'marinara sauce', 'tomato soup', 'chicken noodle soup', 'french onion soup', 'chicken breast', 'ribs', 'pulled pork', 'hamburger', 'cavity', 'pipe']

学習

用意したデータセットを学習していきます。
モデルの初期重みにはとりあえず "v8l" を用いました。

  • epoch:100
  • batch:16
  • project:既定で 'runs/detect/trainX' (X は連番) というディレクトリが作成されます。何度も学習すると分かりにくくなるため変更します。
  • name:"project" 配下のディレクトリ名です。どのようなパラメーターで学習したのか後で分かりやすいように記載すると良いかもしれません。

その他パラメーターは以下に記載されています。
https://docs.ultralytics.com/modes/train/#arguments

from ultralytics import YOLO

model = YOLO('yolov8l.pt')
model.train(
    data = '/path/to/datasets/pipe/pipe.yaml',
    epochs = 100,
    batch = 16,
    workers = 8,
    project = 'runs/pipe/train',
    name = 'yolov8l_16_100_v1',
    )

学習に要した時間とメモリはこのような感じです。
VRAM 16 GB の GPU でもギリギリいけそうでしょうか。

学習時間 VRAM 使用量
327.6 sec 約 13 ~ 17 GB / 1 epoch

results.png は以下の通りです。
loss は落ち着いていって問題なさそうに見えます。
results.png

学習したモデルを使用して推論

weights ディレクトリに作成された "best.pt" で推論してみます。
今回はテストデータではなく、学習で使用していない後日撮影した画像を推論しました。
conf、iou は既定値ではなく 0.5 で見てみます。
推論のパラメーターは以下に記載されています。
https://docs.ultralytics.com/modes/predict/#inference-arguments

from ultralytics import YOLO

model = YOLO('/path/to/best.pt')
source = '/path/to/pictures'

results = model(
    source = source,
    show_labels = True,
    conf = 0.5,
    show_conf = True,
    iou = 0.5,
    line_width = 1,
    save = True,
    project = 'runs/clamp/predict',
    name = 'yolov8l_16_100_v1',
    )
  • うまく検出しているパターン
    実際の本数の 150 本をちゃんと検出できました。
  • うまく検出していていないパターン
    左下の雑草の背後にあるパイプを検出できていないようです。

他にも、以下のようなパターンでうまく検出できていませんでした。

  • パイプによっては断面が奥まって隠れていて、画像上では三日月のような面積の少ない部分
  • 劣化し断面が朽ちてきている、土等が詰まって断面境界が分かりにくく部分
  • 逆光で光線が映りこんでいる

おわりに

今回は単管パイプの物体検出モデルの作成を検証しましたが、1発目でこのくらいの精度が出るモデルが作成できたことは若干驚きでした。
断面がキレイに写っている場合は、ほぼ 100% の精度で検出できていました。
いくつか課題はありチューニングの余地がありますが、オペレーション (撮影方法) で補える部分もありますので本番環境で十分に使用に耐えうるという感想を持ちました。

4
5
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
5

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?