YOLOv11がリリースされ、Ultralyticsの公式Swiftパッケージ「YOLO」を使えば、iPhoneアプリに驚くほど簡単に組み込むことができます。
YOLOパッケージの3つの魅力
圧倒的なシンプルさ
たった数行のコードで、どんなYOLOモデルも利用可能。機械学習初心者でも迷わず使えます。
セグメンテーションがリアルタイムで使える
物体の境界をピクセル単位でリアルタイムに検出し、マスク表示ができます。今までiPhoneで難しかったリアルタイムのセグメンテーションを簡単に実現。
公式・自作モデルどちらもOK
Ultralyticsの公式モデルだけでなく、自分で学習させたオリジナルのYOLOv11モデルも簡単に統合可能。
最短で動かす方法
① Swiftパッケージを追加
Xcodeで「File > Add Packages」から以下のURLを追加します。
② YOLOv11モデルを用意する
公式モデルまたはカスタムモデルを用意し、CoreML形式(.mlmodel)でプロジェクトにドラッグ&ドロップするだけ。
公式モデル:
https://github.com/ultralytics/yolo-ios-app/releases/tag/v8.3.0
カスタムモデルエクスポート:
https://docs.ultralytics.com/ja/integrations/coreml/
③ たった数行のコードで推論!
import YOLO
let model = try YOLO("yolo11n-seg",task: .segment) // Load model
let results = model(image) // # SwifUIImage, UIImage, CIImage, CGImage, bundle name, local path, remote URL

リアルタイム推論も非常に簡単です。
YOLOCamera(
modelPathOrName: "yolo11n-seg",
task: .segment,
cameraPosition: .back
)
.ignoresSafeArea() // SwiftUIの推論カメラViewを初期化
これだけで、カメラ映像上でリアルタイムに物体セグメンテーションが実行されます。
こんな用途にぴったり
人や物体のリアルタイムマスク表示
スポーツやフィットネスアプリでの動作解析
ぜひ、このシンプルで強力なライブラリを使ってみてください!
🐣
フリーランスエンジニアです。
お仕事のご相談こちらまで
rockyshikoku@gmail.com
Core MLを使ったアプリを作っています。
機械学習関連の情報を発信しています。