AIはなぜPoCで止まるのか?NVIDIA DGX Spark × ThinkStation PGXが示す次の一手

多くの企業が抱える「AIを導入してもPoC(概念実証)から先に進まない」という課題の背景には、モデルの大規模化によるGPUメモリ不足やクラウド運用コストの高騰、そしてデータガバナンスの制約などが考えられます。
こうした状況を打開する存在として注目を集めているのが、NVIDIAの「DGX Spark」と、これをベースにしたレノボの「ThinkStation PGX」です。これまで大企業や研究機関でしか手の届かなかったスパコン級のAI処理能力が、自宅でも活用できるようになるというAI開発者にとっては夢のような実機を、いよいよ購入・利用できるようになりました。

ThinkStation PGX
本記事は、そんな両製品にフォーカスしたウェビナーの様子をご紹介します。本ウェビナーでは、AIがPoCで止まる要因としてコスト、データガバナンス、GPUリソースの見積もりという課題が挙げられました。その解決策として、NVIDIA DGX Sparkをベースにした超小型AIスパコン「Lenovo ThinkStation PGX」が紹介され、オンプレミスでAIを継続的に運用するための基盤として、研究から業務AIまで幅広く活用できることが示されました。ぜひ、本記事で内容をチェックしてみてください。
目次
ThinkStation PGX導入と、PoCの先にあるAI活用基盤とワークステーションの新たな可能性
まずはレノボ・ジャパン合同会社 鹿嶋 慎吾氏による「ThinkStation PGX(DGX Spark OEM)の導入、そしてPoCの先にあるAI活用基盤とワークステーションの新たな可能性のご紹介」です。
AIがPoCどまりになる理由と、PoCの壁を超える方法

現在、多くのAIプロジェクトがPoCの段階で止まっており、その理由は以下3点にあるとのことです。
まずは「コスト」。クラウド上で手軽にAIの導入を始めてみようとして、従量課金制なので最初は非常に始めやすいものの、本番に移行すると従業員の人数分だけライセンスを用意しなければならなかったり、容量やGPUリソースがたくさん必要になったりするため、一気にコストが跳ね上がり、本番運用に躊躇してしまうことが考えられます。
次に「データガバナンスとセキュリティ」です。多くの国内企業では、PoCの段階ではサンプルデータで試すものの、自社のデータや顧客情報は基本的にクラウドに上げたくないと考えられています。よって、パブリッククラウドで運用するには制約が多く、なかなか業務を移行する環境を作ることができないという課題もあります。
さらに、「GPUリソースの見積もり」について、ハイエンドのGPUが一体何枚必要なのか、1枚100万円以上するようなGPUが4枚必要なのか、20枚必要なのか全く分からないという点も挙げられるでしょう。
このようなPoCの壁を超えるために必要なのが、継続的にAIを運用できる「AI活用基盤」です。実験ではなく活用するため、学習、再学習、あるいは推論、データの取り回しを社内で完結できる環境が必要になります。すなわち、オンプレミス、現場でAIを動かす感覚であり、こうした環境がPoCの壁を超えるために必要になるとのことです。
編集部コメント:PoCで直面しがちな課題が具体的に言語化されていて、示唆に富んだ内容ですね。コストやデータガバナンス、GPUリソースといった現実的な論点を踏まえた上で、AIを「試す」段階から「継続的に活用する」段階へ進むための道筋が見えてきます。社内で完結するAI活用基盤が整えば、現場での意思決定や業務効率は確実に向上し、AI活用の幅が大きく広がりそうです。
コスト、データガバナンス、GPUリソースなどの課題群を解決する「Lenovo ThinkStation PGX」

レノボでは現場のAI基盤としてワークステーションのラインナップを展開しています。中でも注目すべき製品として今回発表されたのが「ThinkStation PGX」。手のひらサイズで、NVIDIA DGX Sparkがベースになっている超小型AIスパコンです。
ThinkStation PGXは非常にコンパクトでありながら、実質1,000 TOPS(1秒間に1,000兆回の演算)、2,000億(200B)パラメータという高い性能を持ち、現場でのAI構築を可能にします。最大2台までのクラスタ構成をサポートしており、連結することで4,000億(400B)パラメータのLLMにも対応可能。また、特別なスイッチ製品を必要とせずクラスタ運用が可能であるため、部門やアプリケーションごとに配置し、成果が見えやすいオンプレミス環境での運用を実現できます。

ThinkStation PGXは、価格面に関してもクラウドと比較して大幅なコストダウンを実現できています。これまでクラウドでの構築を検討していた方々にとっても非常に安価な投資で導入が可能で、コスト、データガバナンス、GPUリソースといった課題をすべて解決するソリューションとなっています。
AI開発トレンドと課題(NVIDIAセッション)
エヌビディア合同会社の高橋 想氏によるセッションでは、 ThinkStation PGXのベースとなっている超小型AIスパコンNVIDIA DGX Sparkの、民間企業における活用事例が紹介されました。

民間企業における活用事例
VODサービス「BET+」における処理性能向上の事例

パラマウント・グローバルの子会社であるBETメディアグループによるビデオ・オン・デマンド(VOD)サービス「BET+」では、ユーザーの視聴データを処理し、適切なマーケティング分析や番組編成を行うために活用したいと考えていました。しかし、データが非常に大規模なため、従来は多くの時間がかかっていました。これに対して、DGX Sparkを使用することで、既存の環境と比較して処理性能が683%向上したとの声が寄せられています。
Nasdaq社で金融取引システムの可観測性や信頼性が向上

米国の大手金融・証券取引所、Nasdaq社では、金融取引システムにおける異常検知アルゴリズムのテストにDGX Sparkを利用しており、非常に大規模なデータを扱う解析を実行しています。これにより、最終的には金融取引システムの可観測性や信頼性の向上につながったと寄せられています。
大学・教育機関における DGX Spark の利点

企業事例の紹介後、大学や教育機関などでの利用メリットも紹介されました。
まず、大学の中央計算インフラのような待ち時間がない独立した開発環境を提供し、プリロード済みのAIスタックにより即座に反復開発を可能にします。さらに、機密データを外に出さないオンプレミス運用で安全性を確保しつつ、定額制によるコスト予測と削減も実現。さらに、サーバー室不要のデスクトップサイズのため、研究室などへ手軽に展開でき、中央リソースの負荷を軽減しながら生産性を最大化します。
編集部コメント:具体的な数値と実例を交えた紹介で、DGX Sparkの実力が分かりやすく伝わってきますね。VODや金融といった高い処理性能と信頼性が求められる領域で成果を上げている点は説得力があります。大学・教育機関での使い勝手にも触れられており、業種を問わず実務や研究のスピードを大きく引き上げてくれそうだと感じました。
活用領域:研究〜業務AIまで幅広く対応

このように、NVIDIA DGX SparkがベースとなっているThinkStation PGXの活用領域は多岐にわたります。学生や研究者、データサイエンティストなど従来のAI開発層に加え、実際に業務へAIを落とし込んで活用するための基盤として利用可能です。さらに、推論やエッジAI、ロボティクスなどの分野への拡張も想定されています。
これまでのワークステーションは、ノイズ抑制や背景除去といった「AIを使う」恩恵を受けてきましたが、今後は機械学習やディープラーニング、データクレンジング、AIエージェントの作成といった「AIを作る」作業まで賄えるようになります。
これは、以下の3つの「P」を実現するものだと鹿嶋氏は強調します。
- Personalized(パーソナライズド):個人できちんと使える
- Productive(プロダクティブ):生産性が向上する
- Protected(プロテクテッド):セキュアな環境で情報が守れる
最後には「AIを継続的に活用できる仕組みを社内に作り、試すものから使うものへと昇華させ、AIを日常業務の一部として動かす。こういったPoCの壁を超えてエンタープライズAIと共に、皆さまと次のフェーズへ進んでいけますと幸いです」と、締めくくられました。
編集部コメント:研究用途から実業務までを一気通貫で支える活用領域の広さが、非常に印象的ですね。AIを使う段階にとどまらず、「AIを作り、育て、業務に根付かせる」ところまで視野に入っている点に、ワークステーションの進化を感じます。個人で扱える手軽さと生産性、そしてセキュリティを両立しながら、PoCを越えてAIを日常業務に組み込む未来が具体的に描かれていると感じました。
編集後記
今回フォーカスされた「DGX Spark」や「ThinkStation PGX」は、個人レベルでも「AIを試す」段階から「AIを当たり前の道具として使いこなす」段階へと進むための重要な一歩だと感じました。これまで大規模モデルの開発や高度な推論は、クラウドや巨大データセンターの領域だと思われがちでしたが、いまやデスクサイドで実現できる時代が来ているとのことで、ワクワクが爆発しております。また、一般的なオフィスPCと比べれば高めの価格帯とはいえ、サーバーやクラウドよりはるかに低い価格でAIを自由に扱える環境が手に入るのも魅力です。企業はもちろん、AI開発者やデータサイエンティストをめざす個人にとっても将来に向けての良い投資になるのではないでしょうか。この流れがどんな新しい発想を生むのか。楽しみな時代です。
取材/文:長岡 武司
提供:レノボ・ジャパン合同会社