12
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

【Swift】Visionフレームワークを用いた動画からリアルタイムにボールの軌道を検出するアプリ

Last updated at Posted at 2021-03-01

はじめに

撮影している動画に対して、リアルタイムでボールの軌道を検出し、動画に軌道を重ね合わせるアプリを作成しました(下記のgifは作成したアプリでゴルフボールの軌道を検出したデモです) 。
画像処理を目的としたVisionフレームワーク(顔検出、文字検出、バーコード検出、...)の中の1つの機能として、軌道検出がiOS14から使用できるようになりました。
そこで、Appleのドキュメント:Identifying Trajectories in Videoを参考に軌道検出機能を実装しました。
しかし、Vsionフレームワーク関係、特に軌道検出についての情報が、ドキュメント以外にほとんどネットに無かったので、記事を書きました。
私自身もVisionフレームワークを使い始めたばかりなので、アドバイスをいただけると幸いです。
ソースコードはこちらになります。
golf_swing.gif

利用用途

球技スポーツ(ゴルフ、野球、サッカー等)のボールの軌道検出のため
iOS14以降でのiPhone/iPadに対応

軌道検出の流れ

軌道検出をするには「リクエスト」と「リクエストハンドラ」、「オブザベーション」を使います。

  1. リクエストで、Visionフレームワーク中の使用したい機能とパラメタを設定します(今回は、軌道検出機能の VNDetectTrajectoriesRequest を使用)
  2. リクエストハンドラに、処理したい画像と設定したリクエストを渡すことで検出処理が行われます
  3. オブザベーションで、検出結果が取得できます(今回は、軌道検出用途の VNTrajectoryObservation で取得)

軌道検出で取得できる情報

オブザベーションから下記のような情報が取得できます。

  1. detectedPoints(gifの赤色の線)
    • 検出された軌道の座標:リクエストで設定したフレーム数過去に遡り、フレーム数分の軌道の[0,1.0]に正規化されたx,y座標が取得される
    • [VNPoint] :画像におけるx,y座標の配列
    • アウトプット例:[[0.027778; 0.801562], [0.073618; 0.749221], [0.101400; 0.752338], [0.113900; 0.766406], [0.119444; 0.767187], [0.122233; 0.774219], [0.130556; 0.789063], [0.136111; 0.789063], [0.144444; 0.801562], [0.159733; 0.837897]]
  2. projectedPoints(gifの緑色の線)
    • 予測された軌道の座標:過去の5フレーム分遡り、5点分の2次方程式に変換された軌道の[0,1.0]に正規化されたx,y座標が取得される
    • [VNPoint]:画像におけるx,y座標の配列
    • アウトプット例:[[0.122233; 0.771996], [0.130556; 0.782801], [0.136111; 0.791214], [0.144444; 0.805637], [0.159733; 0.837722]]
  3. equationCoefficients
    • 予測された軌道の2次方程式:projectedPointで変換された軌道の2次方程式が取得される
    • simd_float3:2次方程式の係数
    • アウトプット例:SIMD3(15.573865, -2.6386108, 0.86183345)
  4. uuid
    • 軌道のID:各軌道でIDが与えられる。次のフレームで検出した軌道が前のフレームで検出した軌道に含まれると判定された場合は、同じIDが与えられる
    • UUID:一意のID
    • アウトプット例:E5256430-439E-4B0F-91B0-9DA6D65C22EE
  5. timeRange
    • 軌道のタイムスタンプ:各軌道の検出されたタイミングが取得される
    • CMTimeRange:検出された時(Trajectory start)のタイムスタンプと検出され続けた(Detected trajectoryまでの)期間
    • アウトプット例:{{157245729991291/1000000000 = 157245.730}, {699938542/1000000000 = 0.700}}
  6. confidence
    • 軌道の信頼度:[0,1.0]に正規化された検出された軌道の信頼度
    • VNConfidence:観測物の精度の信頼水準
    • アウトプット例:0.989471

rendered2x-1591650146.png
Identifying Trajectories in Video | Apple Developer Documentationより引用しました

実装方法

開発環境と使用フレームワーク、実装の説明について下記に述べます。

開発環境

  • XCode 12.2
  • Swift 5

使用フレームワーク

  1. UIKit
  2. Vision
  3. AVFoundation

軌道検出に関係する実装の説明

デバイスの向きの設定

今回の実装だとLandscape等にすると動画の再生画面が90度回転してしまうため、Portraitに設定をしています。
orientation_setting.png

動画を再生・描画するViewの作成

今回、AVCaptureVideoPreviewLayerを使用し、このレイヤーは入力デバイスによってキャプチャされたビデオを表示するために使用するCALayerのサブクラスです。
このレイヤーをキャプチャセッションと組み合わせて使用します。

PreviewView.swift
import UIKit
import AVFoundation

class PreviewView: UIView {
    override class var layerClass: AnyClass {
        return AVCaptureVideoPreviewLayer.self
    }
        
    var videoPreviewLayer: AVCaptureVideoPreviewLayer {
        return layer as! AVCaptureVideoPreviewLayer
    }
}

Storyboardとの連携

デフォルトのViewController.swiftと紐づいたシーン中のViewに作成したPreviewView.swiftを紐付けます。
storyboard_setting.png

使用するフレームワーク

ViewController.swift
import UIKit
import AVFoundation
import Vision

リクエストの宣言

軌道を検出するためVNDetectTrajectoriesRequestを宣言し、引数は下記3つになります。

ViewController.swift
var request: VNDetectTrajectoriesRequest = VNDetectTrajectoriesRequest(frameAnalysisSpacing: .zero, trajectoryLength: 10, completionHandler: completionHandler)
  1. frameAnalysisSpacing: CMTime

    • 軌道の分析の時間間隔を設定する
    • この値を大きくすると、分析にかけるフレームを間引くことができ、スペックの低いデバイスで有効になる
      .zeroに設定すると全てのフレームを分析にかけることができるが負荷は大きくなる(今回は.zeroにしました)
  2. trajectoryLength: Int

    • 軌道に乗っている点に必要な数
    • 最低は5点だが、点数が少ないとたくさんの軌道を誤認識してまう(個人的には、10点くらいにするとちょうど良くゴルフボールを捉えることができました)
  3. completionHandler: VNRequestCompletionHandler?

    • 検出が完了した際に呼ばれるクロージャ ※今回、completionHandlerというメソッドを作成し、それが呼ばれるようにしました

リクエストのプロパティの設定

リクエストのプロパティには下記の3つが用意されており、必要に応じて設定できます。

ViewController.swift
request.objectMaximumNormalizedRadius = 0.5
request.objectMinimumNormalizedRadius = 0.1
request.regionOfInterest = CGRect(x: 0, y: 0, width: 0.5, height: 1.0)
  1. objectMaximumNormalizedRadius: Float ※今回、設定値が反映されなかったので、機能していないように思います
    • トラッキングしたいモノ(ボール)の半径の最大を設定する
    • セットすることにより、大きな動くモノをフィルタにかけることができる
    • 設定範囲は、フレームのサイズを正規化した[0.0, 1.0]で、デフォルトが1.0になっている
    • 同様のプロパティmaximumObjectSizeは非推奨になっている
  2. objectMinimumNormalizedRadius: Float
    • トラッキングしたいモノ(ボール)の半径の最小を設定する
    • セットすることにより、ノイズや小さな動くモノをフィルタにかけることができる
    • 設定範囲は、フレームのサイズを正規化した[0.0, 1.0]で、デフォルトが0.0になっている
    • 同様のプロパティminimumObjectSizeは非推奨になっている
  3. regionOfInterest: CGRect ※gifの青色の線が設定範囲になります
    • 軌道検出をする範囲を設定する
    • 設定範囲は、フレームのサイズを正規化した[0.0, 1.0]で、CGRectで原点と幅、高さを設定をし、デファルトはCGRect(x: 0, y: 0, width: 1.0, height: 1.0)になっている

リクエストハンドラの設定

ViewController.swift
func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffer: CMSampleBuffer, from connection: AVCaptureConnection) {
    do {
        let requestHandler = VNImageRequestHandler(cmSampleBuffer: sampleBuffer, orientation: .right, options: [:])
        try requestHandler.perform([request])
    } catch {
        // Handle the error.
    }
}

orientation.rightに設定しないと、90度回転した状態でリクエストハンドラに送られ、取得したオブザベーションから軌道の描画をする際に90度回転し直さなければいけなくなります。

オブザベーションの取得

取得した軌道の座標は、左下が原点のVisionの座標系であるため、左上が原点のUIViewの座標系に変換する必要があります。

ViewController.swift
func completionHandler(request: VNRequest, error: Error?) {
    if let e = error {
        print(e)
        return
    }
    
    guard let observations = request.results as? [VNTrajectoryObservation] else { return }
    
    for observation in observations {
        // Convert the coordinates of the bottom-left to ones of the upper-left
        let detectedPoints: [CGPoint] = observation.detectedPoints.compactMap {point in
            return CGPoint(x: point.x, y: 1 - point.y)
        }
        let projectedPoints: [CGPoint] = observation.projectedPoints.compactMap { point in
            return CGPoint(x: point.x, y: 1 - point.y)
        }
        let equationCoefficients: simd_float3 = observation.equationCoefficients
        
        let uuid: UUID = observation.uuid
        let timeRange: CMTimeRange = observation.timeRange
        let confidence: VNConfidence = observation.confidence
    }
    
    //Call a method to draw the trajectory
}

取得した軌道の座標をUIViewの画角に合わせる

変換した座標は正規化された値のなので、軌道を正しく描画するためにUIViewの画角に変換する必要があります。

ViewController.swift
func convertPointToUIViewCoordinates(normalizedPoint: CGPoint) -> CGPoint {
    // Convert normalized coordinates to UI View's ones
    let convertedX: CGFloat
    let convertedY: CGFloat
    
    if let rect = panGestureRect {
        // If ROI is setting
        convertedX = rect.minX + normalizedPoint.x*rect.width
        convertedY = rect.minY + normalizedPoint.y*rect.height
    }else {
        let videoRect = previewView.videoPreviewLayer.layerRectConverted(fromMetadataOutputRect: CGRect(x: 0.0, y: 0.0, width: 1.0, height: 1.0))
        convertedX = videoRect.origin.x + normalizedPoint.x*videoRect.width
        convertedY = videoRect.origin.y + normalizedPoint.y*videoRect.height
    }
    
    return CGPoint(x: convertedX, y: convertedY)
}

アプリの使い方

  1. 三脚等でデバイスを固定する
  2. アプリを起動し、撮影された動画が表示される
  3. 動画内で軌道を検出すると、曲線が描画される
  4. 軌道の検出範囲は、指でドラッグをすると指定できる
  5. 指でタップをすると、検出範囲が解除される

さいごに

軌道検出の実装の流れについては、Visionフレームワークの他の機能と同様なため、理解しやすかったです。
ただ、動画撮影の設定と座標変換は、AVFoundationとUIKitのフレームワークについてもある程度理解しておかなくてはいけなく、実装が大変でした。下記の参考文献がとても参考になりました。
間違いがありましたら、ご指摘いただけるとありがたいです。

参考文献

12
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
7

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?