はじめに
TMCN さん主催の Azure Kinect DK触ってみる会 に参加して Azure Kinect DK の実機に触ることができました。
会では実際に SDK を使って何か自作のコードを動かすことを目標にしていましたが、一応何か動かすことまではできたので、忘れないうちに記事にまとめました。当面さわる機会もなさそうですし・・・
実施環境
下記環境で試しました
- Windows 10 (1903)
- Visual Studio 2019 (16.2.0)
- Unity 2019.1.11f1
- Azure Kinect SDK v1.1.0
今回は Camera のみで Body Tracking は試していません。
準備
Azure Kinect SDK のバイナリをダウンロード、インストールします。
次に SDK のソースコードを GitHub から取得します。
次項でソースコードから SDK のビルドを行います。だったら SDK のバイナリをインストールする必要ないのでは?と思ってしまうところですが、インストーラーには非オープンソースの必須 .dll が含まれているため、インストールはしておく必要があります。もちろんインストーラーで入れれば各種ツール類が入りますので、これらでまず動作確認をするべきでしょう。
SDK をビルドする
いきなり Unity でやる、というのであれば本項は飛ばせますが、 Windows Forms / WPF 版のサンプルを試しておきたいところなので、まず SDK のビルドをお勧めします。
C SDK をビルドする
C# プロジェクト (src\csharp\K4a.sln) のビルドをする際、 C ネイティブ側のビルド済バイナリを要求されます。おそらくインストーラーのバイナリを適切に配置しても解消すると思いますが、適切な配置がよくわからなかったのでソースからビルドします。
C SDK は CMake でのビルドになっています。が、 Windows の場合は Visual Studio の CMake サポート機能を使う事で別途 CMake をインストールしなくても Visual Studio のみでビルドする事が可能です。
(Visual Studio Installer の "個別コンポーネント - コンパイラ、ビルドツール、およびランタイム" の中)
- Visual Studio 2019 を起動し、 "ローカルフォルダーを開く" を選択する
- "Azure Kinect Sensor SDK" をチェックアウトしたフォルダーを選択します
- 少し待ちます
- 構成の種類が選べるようになったら "Win-x64-Release-Ninja" を選択します
- ビルドします
- インストールした Azure Kinect SDK から "depthengine_1_0.dll" (C:\Program Files\Azure Kinect SDK v1.1.0\sdk\windows-desktop\amd64\release\bin\depthengine_1_0.dll) を "build\Win-x64-Release-Ninja\bin" にコピーします
"Win-x64-Release-Ninja" は C# Wrapper で参照している構成なのでここではビルド対象にしていますが、他の構成は必要に応じて適宜ビルドしてください。
C# Wrapper をビルドする
前項 "C++ SDK をビルドする" が完了していれば "src\csharp\K4a.sln" を開いてビルドすることができます。エラーは出ないはずです。
C# プロジェクトはコンパイル時にネイティブの DLL を参照することは原則ないので C++ ビルドがなくてもある程度はビルド通ります。が、それ以外の追加作業含めてビルドを通すようにするには C++ ビルドは必須です。
Unity で使う
Unity では SDK に含まれている C# Wrapper をそのまま Unity で使う事ができます。
今回、下記のような配置にしてみました。
- Assets/K4A/Scripts ← SDK "src\csharp" 下の *.cs を丸ごとコピー
- Assets/K4A/Plugins/x86_64 ← k4a.dll と depthengine_1_0.dll をコピー
※ (2019/7/31 追記) ビルド済 DLL を使用する場合は GitHub のソースコード側とバージョンを合わせるように注意してください。
コードを書きます。
using UnityEngine;
using KinectSensor = Microsoft.Azure.Kinect.Sensor;
public class KinectCapture : MonoBehaviour
{
private KinectSensor.Device _device = null;
private void Awake()
{
_device = KinectSensor.Device.Open();
_device.StartCameras(new KinectSensor.DeviceConfiguration
{
ColorFormat = KinectSensor.ImageFormat.ColorBGRA32,
ColorResolution = KinectSensor.ColorResolution.r720p,
DepthMode = KinectSensor.DepthMode.NFOV_2x2Binned,
SynchronizedImagesOnly = true,
});
}
}
実行をしてみると Device は取得できるのですが、 Device.StartCameras で失敗します。
これ、原因は "depthengine_1_0.dll がロードできない" ことでした。 depthengine_1_0.dll は k4a.dll からロードするので Unity のネイティブプラグインの DLL パスのルールではなく Windows のルールに従います。つまり Unity のルールに従った k4a.dll と同じ位置に配置してもロードされないわけです (ので depthengine_1_0.dll を置く意味はありませんでした) 。
面倒だったので、インストールした SDK のバイナリのフォルダ ("C:\Program Files\Azure Kinect SDK v1.1.0\sdk\windows-desktop\amd64\release\bin") にパスを通す事で解決しました。
(2019/8/10 追記)
手元に実機がないので確認できていませんが depthengine のパス問題は GitHub 上では対策がされているようです。
あとは C# サンプルを参考にコードを書けば Unity 上でも動作させることができました。 API の数自体は少ないし、わかりやすいのでとりあえず動かすだけならそんなに難しくはなかったのですが、適切に動かすにはいろいろコツが必要なようです (というお話を伺った) 。
がんばったけどDepthの扱いがうまくいきませんでした・・・ #TMCN #AzureKinect pic.twitter.com/P2LEhYqGCS
— TAN-Y(たに) (@TANY_FMPMD) July 27, 2019
実装的にはカメラの Color と Depth をそれぞれ RenderTexture の ARGB32 と R16 に書き出し、 Shader 側でごにょごにょしてます。
Depth は Vertex Shader で値を見て Z 方向に動かすようにしているのですが、そもそも Kinect から取得する際の扱いが適切ではなかったようでうまく反映できませんでした (ペットボトルの形状は取れているようではあったのですが) 。この辺はもう少し時間があれば対処できたと思います。
おわりに
会で触れる時間は限られていましたが、事前準備を多少しておいたおかげで何もできずに終了、ということにはならずに済みました。
Unity でやってみた感想としては、一応 C# Wrapper を使えば基本的に Azure Kinect の機能を問題なく使えそうですが、 C# Wrapper が機能的には非常に低レベルな "C API ほぼそのまま" な定義なのにも関わらず、実装自体がよくわからない冗長な実装をしているように見えてあんまりよろしくない感じがしました。
ホロラボさんが独自に C# Wrapper を開発されているようですが、こちらの方がシンプルで無駄のない実装になっているようですので C# で開発をされる場合はこちらをベースにした方がよさそうです。
個人的には Unity で扱う場合、例えばカメラの映像をテクスチャに反映するといったところで実質ネイティブブラグイン不可避なので、最初から C# Wrapper は使わずに Kinect に対する処理はネイティブで書くようにしそうです。あるいはインプロセス実行にこだわらず、 Kinect 自体は別プロセスで実行するのも考えられそうです。
なんにせよ実機がないと何もできないので早いところ日本で普通に入手できるようになってほしいところです・・・