1. 概要
オーディオインターフェースにギター、マイク、ヘッドホンを接続し、ボイスチャット(例:Discord)を使って仲間内で手軽に楽器練習会やレッスンをしたい、そんな場面は少なくないと思います。ところが、「ギターにDAW上のVSTエフェクトをかけたい」「BGMも同時に流したい」となると、途端に音声のルーティングが必要になり、どの方法・ツールを使えばよいか悩むことになります。
本記事では、音声ルーティングを実現する複数の方法について、使用感や費用感に触れながら、2025年10月時点で「どの方法が手軽で安定しているか」を紹介します。厳密な遅延測定や詳細な設定手順を解説するものではなく、「どのツールを選ぶかの方針を立てる」ための参考を目的としています。
先に結論を述べると、Windows環境ではDSPミキサーを備えたオーディオインターフェース(Steinberg UR-Cシリーズ、MOTU CueMix対応製品、RME TotalMix対応製品など)を使うのが最も安定します。また条件をいくつか我慢すれば、無償または少額のソフトウェアでも対応可能です。Mac環境ではBlackHoleとmacOSの機器セット機能とDAW、またはRogue AmoebaのLoopbackを使うことで、オーディオインターフェースに依存せず柔軟なルーティングが実現できます。
本記事では「合奏」ではなく、映像付きのコミュニケーションで各自が演奏し、他のメンバーがコメントするような利用を想定しています。リアルタイム合奏を目的とする場合は、SYNCROOMの利用を検討してください。
2. ユースケース
想定する音声ルーティングの特徴は以下のとおりです。
- 入力:ギターとマイクをオーディオインターフェースに接続
- 出力:ヘッドホン(またはモニタースピーカー)
- ギター入力にはDAW上のVST/AUギターアンプエフェクトを適用
- エフェクト済みギター、デスクトップの音楽プレーヤーのBGM、ボイスチャットからの音声をヘッドホンへ出力
- エフェクト済みギター、マイク入力、BGMをボイスチャットに入力
論理的な接続を図示すると以下になります。
3. 要求条件と課題
演奏用途では、楽器入力からモニター出力までの遅延が10ms以下でないと演奏が難しくなります。その他の経路でも遅延はできる限り小さい方が望ましいです。
Windowsでは低遅延処理を行うために、通常ASIOドライバを介してオーディオインターフェースを利用します。今回の構成ではDAWが必須のため、DAWはASIO経由で音声を扱いますが、音楽プレーヤーやボイスチャットはASIO非対応です。そのため、これらとの音声のやり取りにはWASAPIを用いる必要があります。結果として、ASIO対応アプリ/非対応アプリを安定して統合することが課題になります。
一方、macOSはCore Audioで統一的な音声管理を行っており、音声デバイスをまとめて使う「機器セット」機能も備えています。そのためWindowsよりもシンプルな構成で済みますが、DAWとボイスチャットを連携させるためには追加ツールが必要です。これについては次節で紹介します。
4. ソリューション
以下では、上記構成を実現するツールを遅延・安定性・費用の観点から紹介します。ツールによって提供する機能の違いから、音声経路の扱いにおいて果たす役割もことなるため、目的に応じて適切に組み合わせる必要があります。
4.1. VoiceMeeter Banana
安価に構成する配信用途で最もよく利用されるのがVoiceMeeter Bananaだと思われます。先の論理構成にマッピングすると下図の"Mixer"部分を担当します。
VoiceMeeterはASIOドライバを介した入出力に対応し、ASIO非対応アプリとの入出力を仮想デバイス(VAIO)で扱えます。複数のMixBus(物理系統+仮想2系統)を持ち、柔軟なルーティングが可能です。無償で利用でき、動作も安定しています。
一方で、(A)から(X)のモニタリング遅延が体感的に大きく(約50ms)、リアルタイム演奏には厳しいです。VB-Audio社の他製品(VoiceMeeter Potato, Matrixなど)も遅延の傾向は同様です。
4.2. ASIO4ALL + VB-CABLE
ASIO4ALLは、ASIO非対応デバイスをASIO経由で扱うためのドライバです。単体ではアプリ間の音声パスを提供しないため、仮想I/Oを提供するVB-CABLEと組み合わせて使用します。(A),(B),(X)の区間についてはハードウェアのオーディオインターフェース、(C),(D),(Y)についてはVB-Cableが担当します。
ASIO4ALLを使うことによりDAW側ですべてのI/Oを統一的に扱うことができ、DAWのMixBusまたはGroupChannel機能で柔軟な音声ルーティングが可能になります。またエフェクト適用済みの入力楽器音声が流れる(A)から(X)までの遅延はVoiceMeeterを利用する場合に比較するとやや短く、20〜50ms程度が目安となります。
一方でASIO4ALLは動作が不安定なケースも多く、遅延を減らすためにバッファを短く設定すると容易に音割れが発生します。(Intel Core Ultra 5 135Uのラップトップではバッファサイズ128でも音割れを確認)
ASIO4ALLは無償で利用可能ですが、VB-CABLEについては入出力ペア1つまでが無償で追加ケーブルは寄付制(5〜25 EUR)です。
4.3. Synchronous Audio Router
Synchronous Audio Router (SAR) は、Windows上で複数アプリからDAWへの音声ルーティングを可能にする比較的新しいツールです。接続構成としては図3となりますが、VB-CABLEのような仮想IO機能も提供します。
低遅延で安定し、無償で利用できますが、Secure Bootを無効化しないと動作しないという制約があります。このため、Secure Bootを要求する一部のゲームが利用できなくなる点に注意が必要です。
4.4. オーディオインターフェースのDSPミキサー機能
最も安定する方法が、オーディオインターフェースのDSPミキサーを利用する方法です。SteinbergのdspMixFX, MOTUのCueMix, RMEのTotalMixなどが相当します。論理的な接続構成としては図2に相当しますがMixer部分をオーディオインターフェースのハードウェアが処理します。
ハードウェアでミキシングを行うため、遅延が非常に短く、動作も安定しています。利用できるMixBusの数はオーディオインターフェースごとに異なり、たとえばSteinberg UR22Cであれば2系統、UR44Cであれば3系統、MOTU UltraLite-mk5であれば6系統のMixBusを利用することができます。RME Babyface Pro FSの場合ステレオペアなら6系統、モノラルなら12系統のMixBusを構成できます。
近年比較的安価なオーディオインターフェース(UR22Cで2万円、UR44Cで4万円程度)でもDSPミキサーが利用できるようになったため、この方式が最有力の選択肢といえます。
4.5. (Mac) BlackHole
macOSでは「機器セット」機能を活用し、BlackHoleを仮想オーディオデバイスとして利用することでDAWを介して図3のような柔軟なルーティングが可能です。
BlackHoleは2ch,16ch,64chの仮想デバイスを提供するため、合計3つの入出力ペアを利用することができます。また以下のNoteで紹介される方法を用いて入出力ペアを増やすことも可能です。またオーディオインターフェースインタフェースが担当する(A)から(X)までの遅延はリアルタイム演奏に問題がない程度に低遅延で、動作も安定しています。
BlackHoleは無償で利用可能です。(できれば10USDの寄付をしましょう)
4.6. (Mac) Loopback
RogueAmoebaのLoopbackは99USDで提供されますが、任意のアプリケーションからの音声のルーティングやミキシングバスの構成、モニター出力先の設定などをわかりやすいGUIで操作可能です。また(A)から(X)までの遅延は十分小さく動作も極めて安定しています。
スタンドアローンのアンプシミュレータを使う場合はDSPミキサーを利用する場合と同様にDAWなしで音声ルーティングを構成できます。
4.7. その他
ソフトウェアの他の選択肢としてLinuxで音声ルーティングに利用されるJackのWindowsビルドを試用しましたが、こちらは現行版(1.9.22)とReaperの組み合わせで安定動作を確認できませんでした。
OBSについては配信出力とモニター出力の2系統のMixBusを扱うことができ、また機能拡張によりASIO入力をメディアソースとして利用することができます。VSTプラグイン(Wrapper有りならVST3プラグイン含む)によるフィルタもかけられることから図4のような単独利用ケースが想定されますが、これは次の理由で本記事のユースケースに適していません。
- モニター出力デバイスは1つのみ。ボイスチャット出力とモニター出力の両立不可
- ASIO対応は入力のみ。モニター出力はWASAPIのため演奏モニタリングとしては遅延大
また本記事が想定する映像付きのコミュニケーションや他ソフトウェアからの音声ルーティングに適するものではありませんが、SYNCROOMはDAWと組み合わせて利用することができ、かつリアルタイムの合奏が可能なレベルで遅延を短縮した通信を可能とします。DAWと組み合わせる場合は楽器の入力やモニター出力はオーディオインターフェースの公式ASIOドライバを利用し、下図(D),(Y)にあたるSYNCROOMとDAWの間のブリッジ機能は専用のVSTプラグインによって提供されます。
SYNCROOMは日本の通信事情を考慮して遅延の短縮を図っており興味深いです。たとえばNTT東西のフレッツ回線や〇〇光のようなNGNを利用するユーザ同士の通信では、IPv6 IPoEで通信する場合ISPのネットワークに出ることなく通信キャリア網内で折り返し通信となるため、IPv4 PPPoEで通信をする場合と比べて低遅延になることが知られています。このことを考慮して、SYNCROOMは日本国内のサービスでは双方のユーザの通信環境がIPv6通信をサポートしている場合IPv6通信を優先利用します。
4.8. SYNCROOM VST Bridge + SYNCROOM Driver + VoiceMeeter Banana (10/20追記)
SYNCROOMセッション参加時のミキシング結果をボイスチャットなどに送るために、SYNCROOM Driverが提供されています。SYNCROOM Driverは、WASAPIやMME経由で利用可能な仮想入力デバイスとしてシステム上に認識されます。
DAW側ではオーディオインターフェースの公式ASIOドライバを使用することで、楽器入力へのエフェクト適用やモニター出力を低遅延で行うことができます。同時に、SYNCROOM VST Bridgeを介してSYNCROOMにエフェクト適用済みの音声を送出し、SYNCROOM側に流れた音声をSYNCROOM Driverを通じてVoiceMeeter Bananaなど任意のミキシングツールに入力することが可能です。
本記事で扱うユースケースにおいて、最低限低遅延でなければならないのは(A)〜(X)の区間です。一方で、同期演奏を行わないボイスチャットのリモート参加者向け音声については、ある程度の遅延を許容できるため、以下のような構成が有効となります。
ミキサーとしてはVoiceMeeter Bananaが利用可能であり、配信出力が主目的の場合にはOBSも適しています。
(B)にはSYNCROOM Driverデバイスを、(C)にはWASAPI(または複数クライアントで同時利用が可能な場合はASIO)を指定します。(D)、(E)の区間にはVB-CABLEやVoiceMeeterのVAIOを利用できます。また(E)についてはミキサーを介さずに直接モニター出力デバイスを指定する構成も有効です。
SYNCROOM経由の(A)→(B)→(Y)の経路では体感できる程度の遅延が生じるほか、複数のソフトウェアを起動する必要があります。そのため、DSPミキサーを利用する方法やSARとDAWで完結する方法に比べて必ずしも優れているとは言えません。しかし、VoiceMeeterやDSPミキサー非対応のオーディオインターフェースを使用しており、すでに配信環境が構築されている場合には、DAWを組み合わせて柔軟な音声ルーティングを実現するワークアラウンドとして有効な選択肢となります。
5. まとめ
Discordのようなボイスチャットツールを使う場面で、DAWを経由したオーディオインターフェースの入力や他ソフトウェアの音声をルーティングするいくつかのソリューションを試用した結果として、2025年10月時点で結論は以下のとおりです。
- Windows環境:DSPミキサー対応のオーディオインターフェースを使う方法が最も安定
- 安価な選択肢:UR22C(2MixBus)
- よりコストをかけられる場合:UR44C、UR816C、UltraLite mk5、Babyface Pro FS
- Windows環境(どうしてもDSPミキサー非対応機器を使う場合):
- セキュアブート無効化が可能:Synchronous Audio Router
- VoiceMeeterを利用:SYNCROOM Driver + VoiceMeeter Banana
- Mac環境:BlackHole+機器セット機能、またはLoopbackが柔軟で安定





