AI屋さんの LLMに200万トークン全文入力と「ずんだもん」と私 実践編
LLMとvoicevoxとstreamlitとdockerとcloud runで
LLMに200万トークン全文入力 追加学習ずみの専門分野特化のLLMの作り方
まずは、ずんだもん先生のための voicevox サーバーを建てましょう
中身は、pythonの fastAPI で出来ています。
いくつか方法がありますが、簡単です。
dockerコマンド一発です。
docker run -d -p 50021:50021 voicevox/voicevox_engine
イメージ図
すると、ローカルにサーバーが完成します。
動作確認でポートを開きます。
fastAPI ですので、取説サイトを見れます。
次は、動作確認です。
下記コマンドを実行します。
公式 取説参照
echo -n "こんにちは、音声合成の世界へようこそ" >text.txt
curl -s
-X POST
"127.0.0.1:50021/audio_query?speaker=1"
--get --data-urlencode text@text.txt
> query.json
curl -s
-H "Content-Type: application/json"
-X POST
-d @query.json
"127.0.0.1:50021/synthesis?speaker=1"
> audio.wav
無事に、音声ファイルが出来ていれば
ずんだもん先生の完成です。
簡単でしたね。
おめでとうございます。
まずは、動く環境を構築できました。
→voicevox ローカル(今回ここ)
→pythonで 実行
→voicevox クラウド
→pythonで 実行
→streamlit クラウド
→完成
一番の難関を 今回クリアできました。
あとは、ちょいと足していくだけですし
基本的にはdocker イメージを作ってから クラウドのサーバーレスでデプロイするだけです。
既知の内容です。
第十一回:AI屋さんの dockerでWebアプリをクラウドデプロイ 実践編
https://
qiita.com/bono0/items/c9c7add64cb3c593f776
参照 voicevox 公式
目次
https://
qiita.com/bono0/items/dc1d000c98af7e07c9a7
今回も、無事に ローカルずんだもん先生 をお迎えできました。
AI屋さんの LLMに200万トークン全文入力と「ずんだもん」と私 実践編
完成です。おめでとうございます。
まずは、たっぷり、LLMとお喋りしてください。
ー続くー