5
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Chrome の SpeechRecognition API に WAVなどの音声ファイルを聴かせる

Posted at

はじめに

前回記事

こちらMP3などの音源を食わせてHeadlessChrome・PupetterでSpeechRecognition APIを
稼働させる文字列を得ることはできないものでしょうか?

とコメントいただきました。
これってつまり、

別途用意した動画ストリームをあたかも今Webカメラで撮っているように偽装する**「バーチャルWebカメラ」のように(この記事 参照)、
別途用意した音声ストリームをあたかも今マイクで録音しているかのように偽装する
「バーチャルマイク」**を作れないか、というお題に読み替えられますね。(無理やりすぎ?)

ではやっていきましょう。

要約

先に結論を言うと、
音源ファイルを再生できるバーチャルマイクの構成まではできましたが、
puppeteerからのChrome使用にそのマイクを使用することはできませんでした。

音源ファイルを翻訳するには翻訳APIを使うのが手っ取り早いですし、正しいやり方でしょうね(そりゃそうだ)

実現方法

Windowsでは「ステレオミキサー」なるデバイスを有効化することで、
スピーカー出力をマイクに入力させることが可能なようですが、
そもそもホストマシンに色々導入してどうこう、というのは面倒なのでdockerでやります。

概要

(あとで余裕があったら図を入れる)

  • 使用するのは node:12-slim のイメージにChromeを導入したもの
  • 上記コンテナにバーチャルマイク(pulseaudioの virtual-source)を導入する
  • 前回記事同様、puppeteerでバーチャルマイクの内容をChromeに食わせる

準備

例によって下記環境で実施しました。

  • OS: Windows 10 Pro 64bit
  • RAM: 16GB

Dockerコンテナの準備

node:12-slim ベースにgoogle-chromeを導入します。
あくまでオタメシなのでバージョンとかちゃんと考えてません。

FROM node:12-slim

RUN apt-get update
RUN apt-get install -y libappindicator1 fonts-liberation libasound2 libnspr4 libnss3 libxss1 lsb-release xdg-utils
RUN apt-get install -y wget
RUN wget https://dl.google.com/linux/direct/google-chrome-stable_current_amd64.deb
RUN apt install -y ./google-chrome*.deb

あとは下記を追記して、xvfbと今回重要になる pulseaudio を導入します。
xvfbは Chrome を「headlessじゃない状態で」コンテナで動かすために導入する、
「仮想X Server」と考えてください。

RUN apt-get install -y  xvfb pulseaudio alsa-utils

(追記0423)
あ、あとは日本語フォントを導入します。

RUN apt-get install -y fonts-ipafont

(追記0423ここまで)

ビルド。

docker build -t node-chrome .

(node, chrome以外に色々入ってるのにそのタグはなんだというツッコミはなしで。)

コンテナの起動

今回調べきれなかったのですが、Chromeのオーディオのデバイス設定を
非GUI環境で行う方法がわかりませんでしたので、暫定対処として、
ホスト側のX Serverに chromeのGUI画面を出力して、設定を行います。

VcXsrv などをホストマシンで立ち上げた状態で、
環境変数 DISPLAYhost.docker.internal:0.0 に設定して先ほどのコンテナを起動します。

vscode の 「Remote - Containers」エクステンションを使用している場合は、
devcontainer.json に下記を記載すればOK。

    "containerEnv": {
        "DISPLAY": "host.docker.internal:0.0"
    }

起動したコンテナで下記コマンドを実行して、

google-chrome --no-sandbox

ホストでChromeのウィンドウが開けばおっけー。

image.png

(アアアッ日本語フォント導入忘れて豆腐になっちゃった)

(追記0423)
直した

image.png

(追記0423ここまで)

バーチャルマイクの設定

Emulating microphone input to Chrome inside Docker container

ほぼ3年前に同じことやろうとしてる人がいるので、詳細はそちらを参照ください。

entrypoint.shを作成します

# Load pulseaudio virtual audio source
pulseaudio -D --exit-idle-time=-1

# Create virtual output device (used for audio playback)
pactl load-module module-null-sink sink_name=DummyOutput sink_properties=device.description="Virtual_Dummy_Output"

# Create virtual microphone output, used to play media into the "microphone"
pactl load-module module-null-sink sink_name=MicOutput sink_properties=device.description="Virtual_Microphone_Output"

# Set the default source device (for future sources) to use the monitor of the virtual microphone output
pacmd set-default-source MicOutput.monitor

# Create a virtual audio source linked up to the virtual microphone output
pacmd load-module module-virtual-source source_name=VirtualMic

が、このまま entrypoint.sh を実行しようとすると

E: [pulseaudio] main.c: Daemon startup failed.

とでて失敗します。pulseaudio -vvv を実行すると

E: [pulseaudio] module-console-kit.c: Unable to contact D-Bus system bus: org.freedesktop.DBus.Error.FileNotFound: Failed to connect to socket /var/run/dbus/system_bus_socket: No such file or directory
E: [pulseaudio] module.c: Failed to load module "module-console-kit" (argument: ""): initialization failed.

というエラーが出ていることがわかります。ので、module-console-kitモジュールのロードをやめます(いいのか・・・?)。下記コマンドで/etc/pulse/default.paload-module module-console-kit している行をコメントアウトします。

sed -i 's/load-module module-console-kit/# load-module module-console-kit/g' /etc/pulse/default.pa

再度 entrypoint.sh を実行してエラーが出力されなければおっけー。(いいのか・・・?)

./entrypoint.sh

バーチャルマイクを使用するように設定する

Google Chrome でマイク設定を既定以外にする方法

google-chrome --no-sandbox でchromeを起動したら、上記サイトの通り実行し、
マイクをVirtual Source VirtualMic on Monitor of Virtual_Microphone_Output に設定します。

image.png

実験

ここまでの構成を使用して実験してみます。

バーチャルマイクの動作確認

先ほどのコンテナで新しいシェルを開き、
下記コマンドで音源を再生します。

paplay --device=MicOutput <再生したい音源ファイル>

再生中に先ほどのChromeの音声入力ボタンを押せば試せるはずです。
私は 青空朗読の音源ファイルをお借りし、入力してみました。

なお、音源ファイルは 16bit の PCM に変換して入力しました。

image.png

image.png

バーチャルマイクに再生した音源をChromeが読み、翻訳できていることがわかりますね。

puppeteerによる自動実行

今回の構成で前回のスクリプトを実行してみます。
するとうんともすんとも言わず、終了してしまいました。

下記サイトなどでも指摘されているんですが、
--use-fake 系のオプションを使用しているとデフォルトのデバイスが使用されるようです。

chrome speech recognition WebKitSpeechRecognition() not accepting input of fake audio device --use-file-for-fake-audio-capture or audio file

実際に puppeteer で起動したChromeの設定を見てみると、
先ほど設定したはずの内容が元に戻っていることがわかります。

image.png

うーん?? puppeteerで起動するとユーザー設定が読み込まれないんだろうか?
(もしかしてrootで全部やっているのがよくない?)

これより先はちょっと手に余るので、わかる方いらっしゃったら教えてください。

終わりに

今回無駄にdockerコンテナでやってしまいましたが、
pulseaudioを使用すると簡単に仮想マイクを実現できますよ。という記事でした。

あ、あと、vscode の 「Remote-Container」使用しましたが便利ですね。

参考URL

5
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
5
3

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?