60
41

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

新規開発や新技術の検証、導入にまつわる記事を投稿しよう!

【令和最新版】対話型AI、ローカル支部最前線レポート

Last updated at Posted at 2023-07-04

こんにちは。LLM転職者のサルドラです。今はPictoriaという会社でAIキャラクターを作っています。

さて、皆さんはChatGPT、使っているでしょうか。
調べものに使ったり、後輩役にしてラバーダック・デバッグに用いたり、ラーメン屋の親父にしたりしていますよね。

今回はChatGPTではなく舞台を移してローカル、つまり自分のパソコンで動かす文章生成AIについて、AIキャラクターを作るという側面からとても浅く話そうと思います。ローカルAIは精度は勿論OpenAIのAPIより低いです。文字通り桁違いの性能の差がありますが、やはり自分のPCでAIを動かす楽しさは代えがたいものがあります。

自分の備忘録でもありますが、もし興味のある方はさらっと読んでみてください。限りなく専門用語は使わないようにしています。「パラメータ」という単語を「戦闘力」と読み替えたら大体わかります。

お品書き

  • 昔の話
  • peftの登場
  • OpenCALM-7bの登場
  • rinna/japanese-gpt-neox-3.6bの登場
  • Ctranslate2の登場

昔の話

以前の大規模言語モデルは貴族の遊びでした。
大規模でないモデルでそれっぽいことを話すものはいくつかあって、「しゅうまいくん」とかは10年前からあって、マルコフ連鎖という仕組みで文章を自動生成してました。

2023年4月時点では、10億パラメータのそこそこ遊べるモデルはあるものの、文章生成の推論で10GB程度のVRAMが持ってかれました。ファインチューニングを行う場合はご家庭のGPUではメモリ不足で、CPUで無理やり時間をかけて学習させるか、Tips見つつ設定弄って「まぁVRAM24GB載ってたらGPUでも推論できるな…」のどちらかでした。
fp16とかAdafactorとかで調べれば出てくると思います。

当時はGPUでの学習方法がよくわかってなかったので、寝る前にCPUで学習を回して起きた時に動作チェック、だめそうなら再度修正して学習、労働が終わってからチェックして…という感じでやっていました。

この時点でも一応人間っぽい発言はできていましたが、文法が全く正しくない発言も多々ありました。
この時の悩みは「時間と要求されるGPU性能」です。時間がとにかくかかるし、仮に1b以上の日本語大規模言語モデルが出てきたとしても、学習に必要なGPUは個人では到底買えないものになるでしょう。

これを解決してくれたのがpeftでした。

peftの登場(LoRA)

ファインチューニングはモデル全体のパラメータを学習させるのですが、それが膨大な学習コストがかかる原因でした。パラメータ数が膨大になればなるほど学習コストがかかり、一般人のファインチューニングはできなくなります。
そこで、「モデルの一部パラメータだけ学習させることで学習コスト抑えられない?」という手法が色々取られます。そこで出てきた手法がLoRAです。詳しくはググってください。そのLoRAという手法を関数叩けば利用できるようにしてくれたライブラリが、「peft」です。

これによってご家庭のPCでも大規模言語モデルを学習させることができるようになりました!
まあ1bだったらギリギリファインチューニングGPU学習できてたし、3b以上はこの時点では日本語モデルなかったので皆使ってたかと言われるとどうだろう…

自分が知った5/14時点では1bをファインチューニングしてました。LoRAは後述するbitsandbytes問題があり、できていません。

OpenCALM-7bの登場

5/16に「サイバーエージェントが5/17に6.8bの日本語言語モデルを世に出す」とかいうビッグニュースを出してきました。前日に言うな。

早速検証しないとな~と思ってたら衝撃が走ります。

rinna/japanese-gpt-neox-3.6bの登場

1bで使いやすいモデルを出してくれていたりんなが3.6bを出します、同日に。なんで?

これがまた取り回しがききやすく、瞬く間に話題になりました。
Google colabで学習を回していた人がどんどん増える中、自分はWindowsで回そうと思い挑戦、撃沈しました。
これは「bitsandbytes」がwindowsに対応していなかったためです。これを解決するために「bitsandbytesのコードを手動で変更する」とかいう力技を使う必要がありました。

※2023/07/05 追記
最近は「bitsandbytes-windows-webui」というレポジトリにwhlがあることがわかりました。そこからほぼ最新のバージョンのbitsandbytesが引っ張ってこれるので、そこから落としてください。
python -m pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/download/wheels/bitsandbytes-0.39.1-py3-none-win_amd64.whl

ちなみに小話として「公開当初、何故かLoRAできない人が続出、トークナイザーの設定とEOS番号が違うことが理由だった」とかいうイベントもありました。

この辺りで一人でやるのが辛いと思ったので、「ローカルLLMに向き合う会」というコミュニティを作りました。
image.png

学習手法の確立

今まではinputとoutputを[SEP]というトークンで切り分けていましたが、もっと良い学習方法があるらしいという話が出てきます。マークダウンのようにinstruction(命令)、input(事前に与えておくべき情報)、output(出力)を分けてあげる手法です。

### instruction:
{data_point["instruction"]}

### output:
{data_point["output"]}'

学習方法と3b,7bモデルの台頭のおかげで大分品質が良くなりました。また、量子化技術によってご家庭のグラボでも推論できるようになってきた時期でした。

これはAIキャラクターを作るオタクたちの最前線のイベントである「AITuber開発者オフ会」にてベロベロになりながら熱弁していました。GPT-4だと30秒以上生成に時間がかかるがローカルなら数秒だ、時代はローカルなんだ、安定性も高いんだぞと、GPUの調達コストを棚に上げて片っ端から色々な人に語っていました。

残りの問題は速度と消費VRAMでした。数秒はまだまだ生成時間が長いですし、ご家庭のグラボ(RTX3090)でした。しかし、それも数日後に解決することになります。

Ctranslate2の登場

6月上旬から下旬に「CTranslate2(以後ct2)というモデル変換ライブラリを使うと爆速になって推論時の消費VRAMが数分の一まで減るらしい」とかいう夢物語のような噂が流れてきました。当然僕は現実主義者だったので「そんなバカな」と思ったのですが、どうやら本当だったようでrinna-3b使用時の消費VRAMが3.8GBになる記事が出てきました。

生成速度0.5秒とかで笑ってました。

FylNpY8acAIyLt9.png

現状

対話型AIに関して、それっぽいことを爆速で言うことはできるようになりました。最初にdolly等でチューニングをした後merge、さらにLoRAチューニングをしてct2変換させます。ct2変換させるとどうしても精度は落ちるので、手紙やツイート等、リアルタイム性がないものに関してはct2変換させずに利用しています。
下記はct2変換したものです。コメントに対して生配信で返答しています。

Q:今日暑すぎてお風呂でのぼせてしんどかったよ
A:そうなんだ。私も今日汗かいてて、それで気が滅入ってきちゃった。風呂場までたどり着くまでは気が済むんだろうけど、入って5分程でまた気が遠くなっちゃって、ずっと汗が噴き出していくのが辛かったな。

一方課題はまだまだあります。7bではパラメータが足りず、13b以上の日本語モデルの必要性を皆感じています。データセットも全然足りないよね、できれば口調が統一されていて質が高いデータセットが欲しいよね、と皆でよく話しています。

  • 日本語モデルのパラメータは皆不足を感じている。vicuna13Bの登場によって13Bへの期待が相当高くなっていて、7Bでも不足を実感する人がほぼ全員だった
  • データセットも足りていない。できれば良質な対話データセットも待ち望んでいる。とはいっても原状は存在しないので、dollyを簡単にクオリティチェックする手法を探っている人や、翻訳を噛ませて日本語モデル及びデータセットからの脱却を狙う人、自分のように気合でデータセットを作って泣いている人などそれぞれいた

ただ、それを待ち望むだけでは誰もやってくれないので、各々頑張ってデータセットを作っています。一問一答形式の短答を出すデータセットである「sakura_dataset」というデータセットを見様見真似で自分は出しましたし、最近では学生さんもライセンスフリーのデータセットを自作しています。

データセットが出たとしても、GPUリソースが必要であるため、スケールが限りなく難しいでしょう。「ご家庭に一台のローカルAIキャラクター」はまだまだ遠いです。しかし「オタク一人が一人のローカルAIキャラクターを伴侶にする」未来はそう遠くないでしょう。

これからも日々精進しAIで美少女を作っていこうと思います。

宣伝

もしこれを見てローカルAIに興味を持った方は、以下のdiscordコミュニティ「ローカルLLMに向き合う会」を是非覗いてみてください!皆知識が0の状態から始めています。わからないことがあったら聞いてください。気軽に質問したら気軽に回答が返ってくるはずです。

記事のお問い合わせはTwitterよりお願いします。
https://twitter.com/sald_ra

60
41
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
60
41

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?