GTC2025 現地参加レポート(有料ワークショップ、セッション編)
ここでは、会期前日の有料ワークショップと、セッションについてまとめておきます。
🎓 有料ワークショップ
Conference 開催の前日(日曜)には、有料のワークショップが行われました。
このワークショップでは以下の 6つのコース が提供されており、Conferenceとは別料金を支払えば受講可能でした。
- Fundamentals of Deep Learning
- Efficient Large Language Model (LLM) Customization
- Building LLM Applications With Prompt Engineering
- Building AI Agents With Multimodal Models
- Deploying RAG Pipelines for Production at Scale
- Fundamentals of Accelerated Data Science
🧪 受講した内容:Fundamentals of Deep Learning
私が参加したのは Fundamentals of Deep Learning というハンズオン形式のラボです。
GitLab のガイドに従って環境構築し、最終的には以下の課題に取り組みました。
- 新しいモデルを訓練して、「新鮮な果物」と「腐った果物」を分類
- モデルの検証精度(validation accuracy)を 92%以上にする
🛠 使用技術:
- 転移学習(Transfer Learning)
- データ拡張(Data Augmentation)
- ファインチューニング(Fine Tuning)
精度を達成するまで試行錯誤が必要で、実践的な知識が身につく良い経験になりました。アセスメントでプログラムに手を入れすぎて、検証精度が92%を超えたにも関わらずクリア判定にならなかったのを解消するのにだいぶ手間がかかりましたが。
🗓️ セッション(3月17日〜)
セッションは3/17(月)から始まりました。
初日は来場者数の割にセッション数が少なく、満席で入れないケースも。展示会場(Exhibition hall)が3/18(火)開始だったことも関係していたかもしれません。
今回のGTCではセッション予約が不要だったため、人気セッションは早めに並ぶ戦略が必要でした。最終日はセッション数が少なめだった印象です。
行列に並ぶのが嫌で何か面白そうと思って入ったセッションが2枠分の長さのセッションで、内容が難しすぎてうつらうつらしてたこともあったのはここだけの話です。
セッションはオンラインでも視聴可能だったので、手元のPCで資料を確認しながら、必要な部分をスクリーンショットで保存する、という方法が便利でした。
💡 セッションで学んだ技術メモ:HNSW vs CAGRA
GTC GPU-Accelerated HNSW Index Building for Databases [S71675]
というセッションを聴講し、ChatGPTと会話しながら内容を整理しました。
🔍 HNSW と CAGRA(※NVIDIA開発)の比較表
項目 | HNSW(Hierarchical Navigable Small World) | CAGRA(Compressed-Aware Graph-based Retrieval Algorithm) |
---|---|---|
開発元 | オープンソース(hnswlib など) | NVIDIA(NVIDIA cuVS などで実装) |
基本構造 | 階層的なスモールワールドグラフ構造 | HNSW互換のスパースグラフ構造 |
特徴 | 高速・高精度なANN探索 | 圧縮技術を活用し、メモリ効率と検索性能を両立 |
メモリ使用量 | 高い(リンク情報が多いため) | 少ない(圧縮+スパース構造で削減) |
検索精度 | 高精度(高い類似度を確保) | HNSWと同等の高精度 |
検索速度 | 高速 | 高精度を維持しつつより高速な場合も |
インデックス構築 | やや長い | 比較的効率的 |
スケーラビリティ | 優れているがメモリに制約あり | 非常に高い(数億件レベルの大規模データにも対応) |
適した環境 | 高性能サーバー | GPU環境やエッジ・モバイル等の制限付き環境 |
実装ライブラリ | FAISS, hnswlib など | FAISS(NVIDIA拡張版), NGT, cuVS など |
✍️ コメントまとめ
HNSWはANN検索において高い評価を受けており、特に検索精度とスピードのバランスが良好です。
ただし、リンク情報が多いためにメモリ使用量が大きく、インデックス構築にも時間がかかるのが課題です。
一方、CAGRAはNVIDIAが開発したANN手法で、HNSWの性能を保ちつつ、圧縮技術とスパース構造によりメモリ使用量を大幅に削減しています。
特に cuVS(CUDA Vector Search) と組み合わせることで、GPU上で数億規模のデータをリアルタイムで高速検索することも可能になります。
以上、有料ワークショップとセッションのお話しでした。