LoginSignup
10
7

LM Studio でローカル環境でLLMを動かす手順について

Posted at

はじめに

ネットワークに接続されていないローカル環境でLLMを使用したい場合、LM Studio と
呼ばれるAIツールがあるとのことで試してみました。

結果、GPUは NVIDIA の GTX1650 (4GBメモリ) でも問題なく動作しましたので、
動作確認までの手順をまとめてみます。

インストールまで

公式サイト (https://lmstudio.ai/) からインストーラをダウンロードします。
今回は Windows版 を試しました。
0001.png

0002.png

起動すると下記のようなスプラッシュ(?)が展開され、その後起動してきました。
特にインストールオプションを聞かれるようなこともなく、自動的にインストールが進み、完了しました。
同時にデスクトップにショートカットが作成されました。
0002_1.png
0002_2.png

初期画面はこのような感じ。
0003.png

ELYZA-japanese-Llama-2-7b-instruct を試す

日本語対応のLLMを試したいので、ELYZA-japanese-Llama-2-7b-instruct を選択してみました。
画面左側の虫眼鏡🔍(Search)を選択し、検索ボックスに「ELYZA-japanese-Llama-2-7b-instruct」と入力してGo。
0004.png

画面右側にGGUF一覧が表示されるので、「ELYZA-japanese-Llama-2-7b-fast-instruct-q4_K_M.gguf」の「Download」を押してダウンロード。
0005.png

画面下部でダウンロードの進捗が確認できます。
0006.png

画面左側の💭(AI Chat)を選択し、画面上部より使用するモデルを選択し、読込ます。
0007.png

試しに日本の首都を聞いてみましたが、イマイチな回答でした。
でも2秒程度で回答されました。
0008.png

ちなみに画面右側の Settings にある GPU Offload が GPU使用の設定のようでした。
(right click for options) と薄っすらと記載がある箇所を右クリックすると CUDA、OpenCL 等の設定
が出てきます。
0009.png

画面左側のフォルダ(My Models)を選択すると、ダウンロード済みのモデル一覧が表示されます。
0010.png

最後に

ローカル環境でLLMを使用したい場合、LM Studio で気軽に試せることが分りました。
ただ使っているうちに回答が生成されず、延々と待たされることもあり、安定していない面もあるようです。

ChatGPT等で扱いにくいような社内情報を扱う場合、LM Studio は使えるものかもしれません。

参考文献

この記事は以下の情報を参考にして執筆しました。

10
7
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
10
7