0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Ollama で GGUF を直接実行できるようになったらしい

Posted at

やりたいこと

OSS の LLM をローカルで実行できる Ollama で以前はちょっとした作業が必要だった GGUF モデルを直接実行できるようになったようなので試してみます。

GGUF とは?

C 言語で用いられる機械学習用のライブラリである「GGML」で使われるバイナリ形式のファイル。モデルの重みやモデルのメタ情報なども保存でき、1ファイルだけで完結できるのがメリット。
llama.cpp でも使われていて、Ollama でも利用可能になっている。

実行してみる

以前、日本語の OSS モデルである ELYZA を Ollama で使ったので、それを今回も使ってみます。

その記事はこちら。Ollama のセットアップなどもこの記事を参考。

ELYZA の HaggingFace でのリポジトリはこちら。

Ollama で実行してみる。

docker exec -it ollama ollama run huggingface.co/elyza/Llama-3-ELYZA-JP-8B-GGUF        

モデルのダウンロードが始まり、完了すると入力待ちになる! (時間はけっこうかかります)

>>> Send a message (/? for help)

ひとまずあいさつしてみる。

>>> こんにちは
こんにちは!お話ししましょうか?

非常に簡単ですね!

OpenWebUI でも利用可能!

image.png

ということで

Ollama で GGUF 形式のモデルを簡単に利用できるようになりました。以前まではひと手間必要だったのが地味にめんどくさかったのですが、非常に楽になりました。
セキュリティやデータプライバシーの関係で、LLM をセルフホストしたい場合などは助かりそうですね!

以上です。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?