はじめに
Embreeとは、Intelが提供する高速なレイトレーシングを実現するC言語(C99)のライブラリです。
EmbreeはCPUのみで処理を実行し、非常に高いパフォーマンスを発揮してくれます。
この記事では、これからEmbree 3.x系を利用する人へ向け、C++による実装を処理の流れに沿って解説します。
また、この記事はレイトレ Advent Calendar 2019の記事です。
興味がある方はそちらもどうぞ!
想定読者
この記事の想定読者は以下の通りです。関連するトピックの用語を前置き無く使用しますのでご了承ください。
- Embreeを利用し始めたいが勝手が分からず困っている方
- 基本的なC++の記法が分かる方
- レイトレーシングの基本的な描画フローが分かる方
- Graphics PipelineのVertex Buffer, Index Bufferを知っている方
開発環境
この記事上のサンプルコードを動作させた環境です。
- Windows10 Build_18956 insider preview
- Visual Studio 2019
- Embree 3.6.1
Embree APIバージョン
Embreeは、2018年3月に発表された2.x系から3.0へのアップデートの際にAPIが刷新されました。
2.x系と3.x系では処理の流れは概ね同じですが、2.x系のAPIのほとんどが3.x系で利用できません。
この記事では、Embree 3.x系に沿って解説します。(以降Embree3と表記)
筆者も大いに参考にさせていただいたEmbree 2.x系の解説記事はこちら。
描画モデル
今回はこのモデル(頂点数6, ポリゴン数8)を利用して解説します。
以下にC++コードで便宜的に示します。
vertex[0] = { -0.5f, 0.0f, 0.0f };
vertex[1] = { -0.0f, 1.0f, 0.0f };
vertex[2] = { 0.5f, 0.0f, 0.0f };
vertex[3] = { 0.0f, -1.0f, 0.0f };
vertex[4] = { 0.0f, 0.0f, 0.5f };
vertex[5] = { 0.0f, 0.0f, -0.5f };
index[0] = { 1, 0, 4 };
index[1] = { 1, 4, 2 };
index[2] = { 3, 0, 4 };
index[3] = { 3, 4, 2 };
index[4] = { 1, 5, 0 };
index[5] = { 1, 2, 5 };
index[6] = { 3, 5, 0 };
index[7] = { 3, 2, 5 };
環境構築
公式ページから依存ファイルをダウンロードし、お好きなディレクトリへインストールしてください。
ヘッダファイル, リンクファイルの設定もお忘れなく。
ちなみに、旧バージョンは公式開発リポジトリのReleasesから入手できます。
Embree3のオブジェクト
Embree3にはDevice, Scene, Geometry, Buffer, BVH というオブジェクトがあります。
(これらはEmbree3で特殊な意味を持つので、この記事上では曖昧さ回避のため便宜的に「Embree3オブジェクト」と表記します)
これらに対応する型のインスタンスは通常rtcNewXXX
(XXXにDevice等が入る)という関数で生成し、その返り値のハンドルをユーザが利用します。
また、これらのオブジェクトは参照カウント方式で管理できます。rtcNewXXX
で生成した直後はカウントが1で、rtcRetainXXX
関数でインクリメント、rtcReleaseXX
関数でデクリメントします。リリース時にカウントが0ならばインスタンスが解放されます。
(この一連の操作を「ユーザ側で管理」と表現します)
C++でラッパークラスを作るならばコンストラクタとデストラクタで操作すると使い勝手が良さそうです。
処理フロー概要
Embree3ではこのような流れでプログラムを記述していきます。
下記の各解説では、利用する構造体と関数シグネチャ -> 呼び出し側のコード例 という順で表記します。
// 宣言されているヘッダファイル名
struct Hoge;
Hoge CreateHoge();
また、「Embree3のKernel」という単語を「APIコールによってEmbree3の内部で処理をする部分」という意味で用います。
デバイス生成
Embree3オブジェクトの一つ、デバイスを生成します。
返り値はハンドルとして受け取り、ユーザ側で管理します。
// embree3/rtcore_device.h
struct RTCDevice;
RTCDevice rtcNewDevice(const char* config);
RTCDevice device = rtcNewDevice(nullptr);
このデバイスは、他のEmbree3オブジェクトの生成に利用します。
また、引数に特定の文字列を渡すことでconfiguration)ができます。
NULL
やnullptr
を渡すとデフォルト設定になります。
RTCDevice device = rtcNewDevice("threads=1,isa=avx"); // コンマ区切りで複数指定
他にもデバイス生成時にconfiguration文字列を渡す方法があります。
数字の大きい方が優先され、小さい方は無視されます。
-
rtcNewDevice
の引数に渡した文字列 - アプリケーションと同じディレクトリにある
.embree3
拡張子のファイル - ホームディレクトリにある
.embree3
拡張子のファイル
具体的な設定項目については割愛させていただきます。
公式リファレンスのrtcNewDevice
の項に列挙されていますので、気になる方は覗いてみて下さい。
Embree3のKernelが利用するSIMD命令セットアーキテクチャやスレッド数の設定などができます。
シーン初期化
Embree3オブジェクトの一つ、シーンを生成します。
これは複数の「3D空間上のオブジェクト」を保持します。
返り値はハンドル(RTCScene
型)として受け取り、ユーザ側で管理します。
// embree3/rtcore_scene.h
struct RTCScene;
RTCScene rtcNewScene(RTCDevice device);
RTCScene scene = rtcNewScene(device);
後に scene
に「3D空間上のオブジェクト」を1つ以上アタッチし、レイトレースで利用します。
ジオメトリ初期化
ジオメトリ生成
「3D空間上のオブジェクト」ことジオメトリを生成します。これもEmbree3オブジェクトです。
返り値のハンドル(RTCGeometry
型)を一時的に受け取りますが、この後の「シーンへのジオメトリ登録」の直後に解放し、ユーザ管理から切り離すことが できます。(理由は後述)
// embree3/rtcore_geometry.h
struct RTCGeometry;
RTCGeometry rtcNewGeometry(RTCDevice device, RTCGeometryType type);
RTCGeometry geometry = rtcNewGeometry(device, RTC_GEOMETRY_TYPE_TRIANGLE);
rtcNewGeometry
の第2引数にはEmbree3が定義しているenum値RTCGeometryType
を渡します。
このenum値によって、この「3D空間上のオブジェクト」がどういう形式のバッファとして確保されるかをEmbree3のKernel側に伝えます。
例えばRTC_GEOMETRY_TYPE_TRIANGLE
を渡せば、ポリゴンメッシュ形式(Vertex Buffer & Index Buffer)でメモリ上に確保されることを指定できます。
バッファの実体確保とジオメトリへのバインド
次に、「3D空間上のオブジェクト」の実体を確保してジオメトリにバインドします。
実体の動的確保をEmbree3の関数にやってもらう方法と、ユーザ自身で確保してEmbree3のKernel側に伝える方法があります。
順に説明します。
// embree3/rtcore_geometry.h
/*
Embree3に動的確保をやってもらう方法
*/
void* rtcSetNewGeometryBuffer(
RTCGeometry geometry, // 上で生成したジオメトリ
enum RTCBufferType type, // バッファ形式
unsigned int slot, //
enum RTCFormat format, // 要素1つが持つ変数の型と数の指定
size_t byteStride, // 要素1つ分のサイズ
size_t itemCount // 要素数
);
struct Vertex {
float x, y, z;
};
struct PolygonIndex{
unsigned int v0, v1, v2;
}
// ~中略~
constexpr size_t numVertex = 6;
Vertex* geometryVertices = reinterpret_cast<Vertex*>(rtcSetNewGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_VERTEX,
0,
RTC_FORMAT_FLOAT3,
sizeof(Vertex),
numVertex));
Index* geometryIndices = reinterpret_cast<PolygonIndex*>(rtcSetNewGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_INDEX,
0,
RTC_FORMAT_UINT3,
sizeof(PolygonIndex),
numPolygons));
rtcSetNewGeometryBuffer
を利用すると、Embree3が引数からサイズを計算してバッファ領域の動的確保をしてくれます。
上記の例では、返り値のvoid *
をキャストしてgeometryVertices
で受け取り、今後配列として利用します。
// embree3/rtcore_geometry.h
/*
ユーザ自身で確保してEmbree3のKernel側に伝える方法
*/
void rtcSetSharedGeometryBuffer(
RTCGeometry geometry,
enum RTCBufferType type,
unsigned int slot,
enum RTCFormat format,
const void* ptr,
size_t byteOffset,
size_t byteStride,
size_t itemCount
);
struct PolygonVertex {
float x, y, z;
};
struct PolygonIndex{
unsigned int v0, v1, v2;
}
// ~中略~
constexpr size_t numVertex = 6;
constexpr int numPolygons = 8;
std::array<PolygonVertex, numVertex> geometryVertices;
std::array<PolygonIndex, numPolygons> geometryPolygons;
rtcSetSharedGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_VERTEX,
0,
RTC_FORMAT_FLOAT3,
&geometryVertices,
0,
sizeof(Vertex),
geometryVertices.size());
rtcSetSharedGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_INDEX,
0,
RTC_FORMAT_UINT3,
&geometryPolygons,
0,
sizeof(PolygonIndex),
geometryPolygons.size());
rtcSetSharedGeometryBuffer
を利用すると、既にユーザ側で確保したバッファ領域をジオメトリの実体として利用できます。
上記の例では、std::array<PolygonVertex, numVertex>
として定義したgeometryVertices
のアドレスを引数に渡します。
バッファへのデータ入力
次に、上のいずれかの方法で定義したジオメトリに頂点データを入力します。
今回は手入力としますが、この処理を3Dモデルデータ読込処理に差し替えてしまえば、インポートが実現できます。
rtcSetSharedGeometryBuffer
を利用してバッファ領域確保を行なう場合は、geometryVertices
の定義時に以下のデータ入力処理をしておいても問題ありません。
// Embree3の関数は使用しません。
geometryVertices[0] = {-0.5f, 0.0f, 0.0f};
geometryVertices[1] = {-0.0f, 1.0f, 0.0f};
geometryVertices[2] = { 0.5f, 0.0f, 0.0f};
geometryVertices[3] = { 0.0f, -1.0f, 0.0f};
geometryVertices[4] = { 0.0f, 0.0f, 0.5f};
geometryVertices[5] = { 0.0f, 0.0f, -0.5f};
geometryPolygons[0] = { 1, 0, 4 };
geometryPolygons[1] = { 1, 4, 2 };
geometryPolygons[2] = { 3, 0, 4 };
geometryPolygons[3] = { 3, 4, 2 };
geometryPolygons[4] = { 1, 5, 0 };
geometryPolygons[5] = { 1, 2, 5 };
geometryPolygons[6] = { 3, 5, 0 };
geometryPolygons[7] = { 3, 2, 5 };
ジオメトリのコミット
ジオメトリのバッファへのデータ入力まで終えた後、このジオメトリの状態をEmbree3のKernel側へ伝えます。
// embree3/rtcore_geometry.h
void rtcCommitGeometry(RTCGeometry geometry);
rtcCommitGeometry(geometry);
今後geometryVertices
(VertexBuffer)の各要素の値に少しでも変更があった場合、この関数を呼び出さなければその変更がEmbree3のKernel側に伝わらず、後のレイトレースの結果もコミット前と変わりません。
例えば、リアルタイムレンダリングで描画フレームごとににオブジェクトを移動させたいとき、毎フレームの更新処理でこの関数を呼び出す必要があります。
シーンへのジオメトリ登録
前ステップで初期化したジオメトリをシーンに登録します。
1つのシーンに複数のジオメトリを登録することが可能です。
// embree3/rtcore_scene.h
unsigned int rtcAttachGeometry(
RTCScene scene,
RTCGeometry geometry
);
rtcAttachGeometry(scene, geometry);
2019/12/14 typo修正
rtcAttachGeometry(geometry);
からrtcAttachGeometry(scene, geometry);
に修正しました。
登録の後、ジオメトリを解放することができます。
// embree3/rtcore_geometry.h
void rtcReleaseGeometry(RTCGeometry geometry);
rtcReleaseGeometry(geometry);
この関数呼び出しは、rtcAttachGeometry
によってシーン、すなわちEmbree3のKernel側)がgeometry
への参照を獲得したため、ユーザが管理をする必要が無くなったから解放しようということです。
ただし、必ずしもこのタイミングではジオメトリ解放を行なう必要はありません。必要に応じてどうぞ。
シーン構築
シーンの状態をEmbree3のKernel側へ伝えます。
// declared in embree3/rtcore_scene.h
void rtcCommitScene(RTCScene scene);
rtcCommitScene(scene);
この関数が呼び出されると、Embree3は内部的にBVHの構築を行ないます。
ここまでで描画するシーンのセットアップがすべて完了となります。
レイトレース
1本のレイを飛ばす
// embree3/rtcore_common.h
struct RTCIntersectContext;
void rtcInitIntersectContext(RTCIntersectContext* context);
// embree3/rtcore_ray.h
struct RTCRay{
float org_x; // x coordinate of ray origin
float org_y; // y coordinate of ray origin
float org_z; // z coordinate of ray origin
float tnear; // start of ray segment
float dir_x; // x coordinate of ray direction
float dir_y; // y coordinate of ray direction
float dir_z; // z coordinate of ray direction
float time; // time of this ray for motion blur
float tfar; // end of ray segment (set to hit distance)
unsigned int mask; // ray mask
unsigned int id; // ray ID
unsigned int flags; // ray flags
};
struct RTCHit
{
float Ng_x; // x coordinate of geometry normal
float Ng_y; // y coordinate of geometry normal
float Ng_z; // z coordinate of geometry normal
float u; // barycentric u coordinate of hit
float v; // barycentric v coordinate of hit
unsigned int primID; // primitive ID
unsigned int geomID; // geometry ID
unsigned int instID[RTC_MAX_INSTANCE_LEVEL_COUNT]; // instance ID
};
struct RTCRayHit{
struct RTCRay ray;
struct RTCHit hit;
};
void rtcIntersect1(
RTCScene scene,
RTCIntersectContext* context,
RTCRayHit* rayhit
);
constexpr float FLOAT_INFINITY = std::numeric_limits<float>::max();
RTCIntersectContext context;
rtcInitIntersectContext(&context);
RTCRayHit rayhit;
rayhit.ray.org_x = 0.0f;
rayhit.ray.org_y = 0.0f; // 始点(0, 0, -10)
rayhit.ray.org_z = -10.0f;
rayhit.ray.dir_x = 0.0f;
rayhit.ray.dir_y = 0.0f; // 方向(0, 0, 1)
rayhit.ray.dir_z = 1.0f;
rayhit.ray.tnear = 0.0f; // 始点から
rayhit.ray.tfar = FLOAT_INFINITY; // 距離∞だけレイを飛ばす
rayhit.ray.flags = false; // このレイが一度何かと交差したか否か
rtcIntersect1(sceneHandle, &context, &rayhit);
if(rayhit.hit.geomID != RTC_INVALID_GEOMETRY_ID){
// シーン上の何かしらと交差した
}
else{
// 何にも交差しなかった
}
RTCRayHit
のインスタンスを生成し、rtcIntersect1
によって交差判定を行います。
すると、rayhit.hit.geomID
に、交差した最も近いジオメトリのIDが保存されます。
RTCRayHit::dir_x
ら方向ベクトル成分は正規化されている必要はありません。
スクリーンにレイを飛ばす
今回は簡単のため、カメラ位置などは考慮せず、平行投影と同様な交差判定をします。
100x100ピクセルのスクリーンを例として取り上げます。
// 1本の場合と同様
constexpr float FLOAT_INFINITY = std::numeric_limits<float>::max();
constexpr uint32_t SCREEN_WIDTH_PX = 100;
constexpr uint32_t SCREEN_HEIGHT_PX = 100;
constexpr uint32_t HALF_HEIGHT = static_cast<int>(SCREEN_HEIGHT_PX) / 2;
constexpr uint32_t HALF_WIDTH = static_cast<int>(SCREEN_WIDTH_PX) / 2;
RTCIntersectContext context;
rtcInitIntersectContext(&context);
RTCRayHit rayhit;
rayhit.ray.org_z = -10.0f; // 始点は"手前"側
rayhit.ray.dir_x = 0.0f; //
rayhit.ray.dir_y = 0.0f; // (0, 0, 1)の方向へ飛ばす
rayhit.ray.dir_z = 1.0f; //
rayhit.ray.tnear = 0.0f;
for (int32_t y = 0; y < SCREEN_HEIGHT_PX; ++y) {
for (int32_t x = 0; x < SCREEN_WIDTH_PX; ++x) {
rayhit.ray.org_x = (x - static_cast<int>(HALF_WIDTH)) / static_cast<float>(HALF_WIDTH); // 毎ループ始点位置を更新
rayhit.ray.org_y = (y - static_cast<int>(HALF_HEIGHT)) / static_cast<float>(HALF_HEIGHT); // 毎ループ始点位置を更新
rayhit.ray.tfar = FLOAT_INFINITY;
rayhit.ray.flags = false;
rayhit.hit.geomID = RTC_INVALID_GEOMETRY_ID;
rtcIntersect1(sceneHandle, &context, &rayhit);
if (rayhit.hit.geomID != RTC_INVALID_GEOMETRY_ID) {
// シーン上の何かしらと交差した
}
else {
// 何にも交差しなかった
}
}
}
ちょっとした注意点ですが、RTCRayHit::RTCRay::tfar
, RTCRayHit::RTCRay::flags
, RTCRayHit::RTCRay::geomID
はrtcIntersect1
を呼び出すたびに書き込まれて変更される可能性があります。
ループ中で1つのRTCRayHit
インスタンスを使いまわす場合は毎回のrtcIntersect1
実行前にしっかり元の値に戻してあげましょう。
終了処理
ユーザ側で管理しているEmbree3オブジェクトを全て解放します。
// declared in embree3/rtcore_scene.h
void rtcReleaseScene(RTCScene scene);
// declared in rtcore_device.h
void rtcReleaseDevice(RTCDevice device);
rtcReleaseGeometry(geometryHandle); // 以前にやっていなければ
rtcReleaseScene(sceneHandle);
rtcReleaseDevice(deviceHandle);
まとめ
同様のシーンに対して平行投影的に交差判定し、100x100ピクセルのppm画像に書き込みする例です。
部分部分はこれまでのコードとほとんど同じです。
ソースコード
#include <embree3/rtcore.h>
#include <array>
#include <vector>
#include <limits>
#include <fstream>
struct Vertex {
float x, y, z;
};
struct PolygonIndex {
unsigned int v0, v1, v2;
};
struct ColorRGB {
uint8_t r, g, b;
};
constexpr uint32_t SCREEN_WIDTH_PX = 100;
constexpr uint32_t SCREEN_HEIGHT_PX = 100;
void SaveAsPpm(const std::vector<std::array<ColorRGB, SCREEN_WIDTH_PX>>& image, const char* const fileName) {
std::ofstream ofs(fileName);
if (!ofs) {
std::exit(1);
}
ofs << "P3\n"
<< SCREEN_WIDTH_PX << " " << SCREEN_HEIGHT_PX << "\n255\n";
for (const auto& row : image) {
for (const auto& pixel : row) {
ofs << static_cast<int>(pixel.r) << " "
<< static_cast<int>(pixel.g) << " "
<< static_cast<int>(pixel.b) << "\n";
}
}
ofs.close();
}
int main() {
RTCDevice deviceHandle = rtcNewDevice(nullptr);
RTCScene sceneHandle = rtcNewScene(deviceHandle);
RTCGeometry geometryHandle = rtcNewGeometry(deviceHandle, RTC_GEOMETRY_TYPE_TRIANGLE);
constexpr size_t numVertices = 6;
constexpr size_t numPolygons = 8;
std::array<Vertex, numVertices> geometryVertices;
std::array<PolygonIndex, numPolygons> geometryPolygons;
rtcSetSharedGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_VERTEX,
0,
RTC_FORMAT_FLOAT3,
&geometryVertices,
0,
sizeof(Vertex),
geometryVertices.size());
geometryVertices[0] = { -0.5f, 0.0f, 0.0f };
geometryVertices[1] = { 0.0f, 1.0f, 0.0f };
geometryVertices[2] = { 0.5f, 0.0f, 0.0f };
geometryVertices[3] = { 0.0f, -1.0f, 0.0f };
geometryVertices[4] = { 0.0f, 0.0f, -0.5f };
geometryVertices[5] = { 0.0f, 0.0f, 0.5f };
rtcSetSharedGeometryBuffer(geometryHandle,
RTC_BUFFER_TYPE_INDEX,
0,
RTC_FORMAT_UINT3,
&geometryPolygons,
0,
sizeof(PolygonIndex),
geometryPolygons.size());
geometryPolygons[0] = { 1, 0, 4 };
geometryPolygons[1] = { 1, 4, 2 };
geometryPolygons[2] = { 3, 0, 4 };
geometryPolygons[3] = { 3, 4, 2 };
geometryPolygons[4] = { 1, 5, 0 };
geometryPolygons[5] = { 1, 2, 5 };
geometryPolygons[6] = { 3, 5, 0 };
geometryPolygons[7] = { 3, 2, 5 };
rtcCommitGeometry(geometryHandle);
rtcAttachGeometry(sceneHandle, geometryHandle);
rtcReleaseGeometry(geometryHandle);
rtcCommitScene(sceneHandle);
constexpr float FLOAT_INFINITY = std::numeric_limits<float>::max();
std::vector<std::array<ColorRGB, SCREEN_WIDTH_PX>> screen{SCREEN_HEIGHT_PX};
RTCIntersectContext context;
rtcInitIntersectContext(&context);
RTCRayHit rayhit;
rayhit.ray.org_z = -10.0f;
rayhit.ray.dir_x = 0.0f;
rayhit.ray.dir_y = 0.0f;
rayhit.ray.dir_z = 1.0f;
rayhit.ray.tnear = 0.0f;
constexpr uint32_t HALF_HEIGHT = static_cast<int>(SCREEN_HEIGHT_PX) / 2;
constexpr uint32_t HALF_WIDTH = static_cast<int>(SCREEN_WIDTH_PX) / 2;
for (int32_t y = 0; y < SCREEN_HEIGHT_PX; ++y) {
for (int32_t x = 0; x < SCREEN_WIDTH_PX; ++x) {
rayhit.ray.org_x = (x - static_cast<int>(HALF_WIDTH)) / static_cast<float>(HALF_WIDTH);
rayhit.ray.org_y = (y - static_cast<int>(HALF_HEIGHT)) / static_cast<float>(HALF_HEIGHT);
rayhit.ray.tfar = FLOAT_INFINITY;
rayhit.ray.flags = false;
rayhit.hit.geomID = RTC_INVALID_GEOMETRY_ID;
rtcIntersect1(sceneHandle, &context, &rayhit);
if (rayhit.hit.geomID != RTC_INVALID_GEOMETRY_ID) {
screen[y][x].r = 0xff;
screen[y][x].g = 0x00;
screen[y][x].b = 0xff;
}
else {
screen[y][x].r = 0x00;
screen[y][x].g = 0x00;
screen[y][x].b = 0x00;
}
}
}
SaveAsPpm(screen, "result.ppm");
rtcReleaseScene(sceneHandle);
rtcReleaseDevice(deviceHandle);
}
結果
おわりに
お疲れさまでした。
次回解説でPhong Shadingの実装解説を予定していましたが体力が尽きました
もしこの記事内に間違いや不適切な記述を見つけた場合は、コメントでお教えください。
参考記事
EmbreeによるCPUレンダリング(その1) 交差判定
Embree公式ページ(Overview)
Embree公式ページ(API reference)
Embree公式リポジトリ
Wikipedia BVH