3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

YOLOv11を使ってiPhoneでリアルタイム・セグメンテーションを始めよう

Last updated at Posted at 2025-03-27

YOLOv11がリリースされ、Ultralyticsの公式Swiftパッケージ「YOLO」を使えば、iPhoneアプリに驚くほど簡単に組み込むことができます。

seg.gif

YOLOパッケージの3つの魅力

圧倒的なシンプルさ

たった数行のコードで、どんなYOLOモデルも利用可能。機械学習初心者でも迷わず使えます。

セグメンテーションがリアルタイムで使える

物体の境界をピクセル単位でリアルタイムに検出し、マスク表示ができます。今までiPhoneで難しかったリアルタイムのセグメンテーションを簡単に実現。

公式・自作モデルどちらもOK

Ultralyticsの公式モデルだけでなく、自分で学習させたオリジナルのYOLOv11モデルも簡単に統合可能。

最短で動かす方法

① Swiftパッケージを追加

Xcodeで「File > Add Packages」から以下のURLを追加します。

② YOLOv11モデルを用意する

公式モデルまたはカスタムモデルを用意し、CoreML形式(.mlmodel)でプロジェクトにドラッグ&ドロップするだけ。

公式モデル:
https://github.com/ultralytics/yolo-ios-app/releases/tag/v8.3.0

カスタムモデルエクスポート:
https://docs.ultralytics.com/ja/integrations/coreml/

③ たった数行のコードで推論!

import YOLO

let model = try YOLO("yolo11n-seg",task: .segment) // Load model

let results = model(image) // # SwifUIImage, UIImage, CIImage, CGImage, bundle name, local path, remote URL

リアルタイム推論も非常に簡単です。

YOLOCamera(
    modelPathOrName: "yolo11n-seg",
    task: .segment,
    cameraPosition: .back
)
.ignoresSafeArea() // SwiftUIの推論カメラViewを初期化

これだけで、カメラ映像上でリアルタイムに物体セグメンテーションが実行されます。

こんな用途にぴったり

人や物体のリアルタイムマスク表示
スポーツやフィットネスアプリでの動作解析

ぜひ、このシンプルで強力なライブラリを使ってみてください!

🐣


フリーランスエンジニアです。
お仕事のご相談こちらまで
rockyshikoku@gmail.com

Core MLを使ったアプリを作っています。
機械学習関連の情報を発信しています。

Twitter
Medium
GitHub

3
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?