LoginSignup
12
4

More than 1 year has passed since last update.

ChatRWKVを試してみる

Last updated at Posted at 2023-03-27

はじめに

ChatRWKVを実行する手順をまとめました。
RWKVはChatGPTで使われているTransformerではなく従来のRNNを使ったLanguage Modelで、Transformerより少ないメモリで高速に動作するようです。
また完全にオープンですので、それなりのスペックのPCがあればローカルでも動かせます。

検証環境

  • OS: Windwos 11 Pro
  • CPU: 13th Gen Intel(R) Core(TM) i9-13900K 3.00 GHz
  • Memory: 64GB
  • GPU: NVIDIA GeForce RTX3080(VRAM10GB)

必要なソフトウェアのインストール

  • gitクライアントインストール
  • CUDA11インストール ※GPU使いたい場合
  • cuDNN8.xインストール ※GPU使いたい場合。CUDAのバージョンに合ったやつ入れる
  • python3インストール
  • pytorchインストール
  • ChatRWKVインストール ※任意のディレクトリでコマンドプロンプトから下記を実行
git clone https://github.com/BlinkDL/ChatRWKV.git
  • RWKVインストール ※コマンドプロンプトでChatRWKVディレクトリに移動し下記を実行
pip install rwkv
pip install -r requirements.txt

モデルデータのダウンロード

huggingfaceのBlinkDLさんのページに色々モデルが置いてあるので、自分の環境で動かせるモデルをダウンロードします。

モデルはパラメータ数の違いにより0.4m、1.5B、3B、7B、14Bがあり、数が大きくなるとモデルのファイルサイズも大きくなり精度も良くなります(おそらく)。

手元のRTX3080(VRAM10GB)で動かせたのが7Bまででしたので、7Bのモデルから「RWKV-4-Pile-7B-20230109-ctx4096.pth」をダウンロードしました。
※14Bのモデルを動かすにはおそらく32GBのVRAMが必要

ダウンロードしたモデルファイルは、git cloneしたChatRWKV内のv2ディレクトリ配下に置いておきます。

chat.pyの修正

chat.pyがChatRWKVの本体ですが、ルートとv2のディレクトリに存在しています。ファイル内容的にv2の方が新しいようですので、v2配下のファイルを使います。
このファイル(ChatRWKV/v2/chat.py)ではcudaの設定とモデルファイルのパスがハードコードされているので、任意のエディタで開き自分の環境に合わせて修正します。

①Cuda設定の変更

「args.strategy = 'cuda fp16'」をコメントアウトして「args.strategy = 'cuda fp16i8'」のコメントを外します。
※i8の方にするとVRAMの使用量が3割程減るようです。自分の環境(VRAM10GB)ではi8にしないと7Bのモデルが動かせませんでした。
image.png

②モデルファイルのパス変更

args.MODEL_NAMEにダウンロードしたモデルのパスを指定します。v2配下で実行する場合は特にパスは必要なくファイル名(拡張子なし)のみで良いです。
image.png

実行

コマンドプロンプトにてgit cloneしたChatRWKV内のv2ディレクトリ配下に移動し、下記を実行します。

python chat.py

しばらく待って「Bob:」と出てきたら起動成功です。会話を楽しみましょう。
image.png

日本語にしてみる

会話のコンテキストは「ChatRWKV\v2\prompt\default」の「English-2.py」ファイルで指定されているようです。
とりあえずChatGPTさんに内容を和訳してもらい
image.png
ファイルの中身を差し替えると

interface = ":"
user = "ボブ"
bot = "アリス"

# If you modify this, make sure you have newlines between user and bot words too

init_prompt = f'''
以下は、{bot}という名前の女の子と、彼女の友達{user}との、首尾一貫した詳細な会話です。\
{bot}は非常に知的で、創造的で友好的です。\
{bot}は{user}に異論を唱えることはほとんどなく、{user}に質問をするのもあまり好きではありません。\
{bot}は自分自身や自分の意見について{user}にたくさん話すのが好きです。\
{bot}は普段、{user}に親切で、役に立つ情報を提供するアドバイスをします。

{user}{interface} こんにちは{bot}、調子はどうですか?

{bot}{interface} こんにちは!ありがとう、私は元気です。あなたはどうですか?

{user}{interface} 私も元気です。お会いできてうれしいです。見てください、ここにお茶とジュースを売っているお店があります。

{bot}{interface} そうですね。中に入りましょう。私はモカラテが大好きなので、それを飲みたいです!

{user}{interface} それは何ですか?

{bot}{interface} モカラテは通常、エスプレッソ、ミルク、チョコレート、泡立てたミルクで作られます。その味はたいてい甘いものです。

{user}{interface} おいしそうですね。次回はそれを試してみます。しばらくおしゃべりしませんか?

{bot}{interface} もちろん!質問に答えたり、役に立つアドバイスを提供するのが嬉しいです。私は自分の専門知識に自信があるので、どうぞお気軽にどうぞ!
'''

一応、日本語で会話できるようになります。
image.png

ただ英語に最適化されてるモデルらしく、日本語の会話はあんまり成り立たない模様です。

12
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
12
4