Eugenie_Wirz
所属: インテル
2025年4月25日
https://community.intel.com/t5/user/viewprofilepage/user-id/245396
著者: Gor Hakobyan、Levon Budagyan、Rahul Unnikrishnan Nair、Desmond Grealy
Intel® Liftoff プログラムのメンバーである Waveye は、高解像度の画像処理レーダーをベースに、製造環境向けの集中型安全ソリューションを開発しました。プロジェクトの中心は、高密度のレーダー点群を用いた多様なオブジェクト分類に使用する認識モデルの学習です。
この記事では、インテル® oneAPI マス・カーネル・ライブラリーを用いて Waveye のレーダー処理と学習パイプラインで実施された、パフォーマンス高速化テストの結果を紹介します。テストでは CPU のみを実装した場合と比較して 20 ~ 50 倍と大幅なパフォーマンス向上が示されました。これにより、核となるレーダー認識アルゴリズムの AI ライフサイクル・イテレーションを高速化することが可能になります。
<プロジェクトの背景>
Waveye は、自動化された工場において作業者の安全を確保する、レーダーを使用した集中型安全システムを開発しています。プロジェクトの目標は、人間、無人搬送車 (AGV)、フォークリフトが同一空間で作業している環境において、プライバシーを保護しつつ検出と追跡を可能にすることです。
システムは広大な製造エリアをカバーでき、照明の状態に左右されず、対象オブジェクトが識別用のタグを携帯する必要はありません。
目的は、1 秒未満かつ 99% を超える精度で人間を検知でき、ロボットとフォークリフトに対しても同様の精度で安定した検出が可能な認識スタックを開発することでした。
Waveye によるデモ
「今回のインテルとのコラボレーションでは、インテル® Tiber™ AI クラウド上でインテル® oneAPI ツールキットのようなハードウェア抽象化ツールを利用し、エッジ処理パイプラインを x86 アーキテクチャーへ移行する際の効率性を検証したいと考えていました」- Waveye、最高技術責任者 (CTO)、Gor Hakobyan 博士
https://www.linkedin.com/authwall?trk=bf&trkInfo=AQG7DhMgYuoiGgAAAZgwr3VwRJg_DnES1ZvTCKaLTXUd22u5aql9SB-FX6WsrDlIcVAIrk8H9ss1EAScZmNsj4CHKy9r3A_MVVqwAlJkbbUfvBvS8hW_6in_6zyjqD_KElZTl1I=&original_referer=&sessionRedirect=https%3A%2F%2Fwww.linkedin.com%2Fin%2Fgor-hakobyan-0423a98a%2F
レーダー認識モデルがオブジェクトを検出 / 分類し、継続的に追跡します。衝突の危険がある場合、モデルはロボットに信号を送って減速させるか、衝突しない経路を選ばせることが可能です。
システムはエンドツーエンドのレーダー処理と学習パイプラインで構成され、元々は以下の実装形態でした。
• エッジ処理では CUDA 高速化を使用
• クラウド環境では CUDA または CPU 処理を使用
このテストの第一の目的は、インテルのクラウド環境においてパイプラインを高速化する際の、oneAPI ライブラリーの有効性を評価することでした。特に注目したのは、インテル® oneAPI マス・カーネル・ライブラリー (インテル® oneMKL) のアクセラレーション機能です。
処理パイプラインの一部はインテル® oneMKL のルーティンに直接マッピングできたものの、残りの部分はカスタムの CUDA カーネルに依存していました。
この依存部分もほかと同じくスムーズに埋め込めるように、Waveye のチームは Halide を選択。この言語の方針がレーダーキューブの処理操作に合致し、既存の C++ コードへ容易に埋め込めるからです。インテル® oneMKL によって高速化された Halide では手動の最適化をそれほど必要とせず、CPU のネイティブ実装と比較して大幅なスピードアップにつながりました。
https://halide-lang.org/
「インテル® Tiber™ AI クラウド上でのインテル® oneMKL とインテル® oneAPI ツールキットによる作業は、非常にスムーズに進みました。レーダー処理パイプラインを分解して線形代数演算に変換し、数十年におよぶ計算手法の進歩によってハードウェアから最大限のパフォーマンスを引き出すことには、ある種の美しさがあります」Waveye、最高経営責任者 (CEO)、Levon Budagyan 氏
https://www.linkedin.com/in/levonbudagyan/
<テスト手法>
Waveye はレーダー処理パイプラインの主な演算コンポーネントをベンチマーク測定し、以下の 2 つを比較しました。
- CPU のみの実装 (基準)
- インテル® oneMKL によって高速化した実装
各コンポーネントを典型的なワークロードで複数回実行し、一貫した測定結果を出力できるようにしています。タイミングはマイクロ秒の精度でキャプチャーされました。
<結果>
全体的なパフォーマンス
oneAPI ライブラリー、中でもインテル® oneMKL はさまざまな演算カーネルにおいて、基準の CPU 実装と比較して 20 倍から 50 倍の高速化を達成しました。
ワークフローへの影響
このようなパフォーマンス向上により、主に以下のようなメリットが挙げられます。
- エッジ・シミュレーション: クラウド環境でのエッジ処理シミュレーションが効率化
- 開発期間の短縮: レーダー認識アルゴリズムの AI ライフサイクル・イテレーションが大幅に高速化
- リソースの最適化: 演算リソースの要件と関連するコストを低減
- イテレーション速度: アルゴリズムの開発とテストに要する評価サイクルを短縮
<まとめ:インテル® oneAPI マス・カーネル・ライブラリーによるレーダー処理の高速化>
oneAPI ライブラリー、特にインテル® マス・カーネル・ライブラリーを統合したことで、Waveye のレーダー処理パイプラインは大幅なパフォーマンス向上を実現しました。この最適化によって、基準の CPU 実装と比較して 20~50 倍高速化が可能になり、開発とテストのサイクルを効率化しつつ、演算リソースの要件を最小限に抑えることができます。
今回の結果から、インテル® oneAPI ツールキットは安定性と拡張性の高い高速化プラットフォームであり、特にインテルのクラウド環境に展開される演算負荷の高いレーダー処理のワークロードに十分適していることが分かります。
<次のステップ:さらなる最適化とパフォーマンス向上>
有望な結果を得た Waveye は今後、以下の取り組みを予定しています。
• 専用カーネルのさらなる最適化: 特定の演算カーネルを継続的に調整し、パフォーマンスを最大化。
• さまざまな演算シナリオにテスト範囲を拡大: 実環境に即した多様な条件とワークロードでパフォーマンス向上を検証。
• インテル® oneAPI ツールキットのほかのコンポーネントを評価: oneAPI エコシステムで利用できる多様なライブラリーやツールを検証し、さらなる高速化の機会を特定。
• ハイブリッドな高速化手法の探究: インテル® MKL と特化型ライブラリーの組み合わせを詳しく調べ、処理段階ごとにパフォーマンスを最適化するハイブリッドなソリューションを開発。
これらのステップにより、Waveye のレーダー処理アプリケーションは、インテルの技術との統合を深め、さらなる効率化を目指しています。
<Waveye について>
Waveye は米国カリフォルニア州パロアルトとドイツのシュトゥットガルトに拠点を置くテクノロジー系スタートアップ企業です。高解像度の画像レーダーをベースに、ロボットに実装する空間動態認識テクノロジーを開発しています。
https://waveye.com/
創設者の Levon Budagyan 氏はマシンラーニングとソフトウェアの分野で起業し、1 億 1,500 万ドルを超えるグローバル企業に成長させた実績を持ちます。Gor Hakobyan 氏はレーダーの専門家であり、センシング技術に関する特許出願は 100 件を上回ります。
https://www.linkedin.com/authwall?trk=bf&trkInfo=AQGOJw-9oANpBAAAAZgwsLHYUit-0u2s0lLZqjtwA_0pUhs9-cm-OjieI0HHHJ_gKQ_8kdqHoQ2G-8WVO_cxvAbBVGUABNEa7-guhY0cp37wvPPsceqeuVQUdm6EVMRRJpbsF-o=&original_referer=&sessionRedirect=https%3A%2F%2Fwww.linkedin.com%2Fin%2Flevonbudagyan%2F
https://www.linkedin.com/authwall?trk=bf&trkInfo=AQHpkehWJ79QWQAAAZgwsPBYg3vQEfje74YEUDZXQB2wTgVcfaQjiSyMEEt1rCkzMpsNhGLE4HQ8-wBDn6aJD0lgQ-KvLBWxPh06Ldjk-8Fhca_Z6Q8TqFai0V8Ad7m0RFjL9JM=&original_referer=&sessionRedirect=https%3A%2F%2Fwww.linkedin.com%2Fin%2Fgor-hakobyan-0423a98a%2F
<最適なタイミングでスタート>
Intel® Liftoff プログラムは、初期段階の AI スタートアップ企業を対象とした、無償で参加可能な完全オンラインの支援プログラムです。自由なタイミングで開始でき、資本提供の義務がなく、制限もありません。必要なのは前に進むことだけ。皆さんの参加をお待ちしています。
https://ai.cloud.intel.com/solutions/startups/
<関連リソース>
インテル® Tiber™ AI クラウド - AI の開発 / 実装のためのクラウド・プラットフォーム
インテル® oneAPI ベース・ツールキット - 高性能アプリケーションを構築するための包括的な開発者向けツール
https://ai.cloud.intel.com/
https://www.intel.com/content/www/us/en/developer/tools/oneapi/overview.html#gs.i2layu