3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

llama.cppのインストール方法

Posted at

前提条件

Windows11にllama.cppをインストールする方法についてまとめます

llama.cppのクローン

以下のGithubのページからllama.cppをクローン、もしくはZip形式でダウンロードして解凍してください。

w64devkitのインストール

下記のサイトからw64devkitの最新版をダウンロードして解凍してください。

w64devkit.exeを起動

解凍したファイルに含まれているw64devkit.exeを起動させ、llama.cppのファイルまで移動してください。

ビルド

llama.cppで以下のコマンドを実行することでllama.cppをビルドさせることが出来ます

make

サーバー機能

w64devkitを用いて以下のコードを実行するとサーバーを立てることができる

$ ./server -m models/vicuna-7b-v1.5.ggmlv3.q4_K_M.bin -c 2048

-m 以降のパスにmodelsフォルダに配置したLLMモデルのパスを指定することで、指定したLLMモデルを扱うことができる。

スクリーンショット 2024-01-16 155324.png

スクリーンショット 2024-01-16 155206.png

上記の画像は起動したサーバーにブラウザからアクセスした際の画像です。

3
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?