10
15

Llama3.2 をローカルで動かしてみる

Posted at

やりたいこと

Meta 社から Llama3.2 が発表されました。軽量なモデルである Llama 3.2 1B および 3B とマルチモーダルモデルである Llama 3.2 11B および 90B です。
先日、OSS なモデルをローカルで動かす方法 (以下の記事) を試したので、今回の Llama3.2 も試してみようと思います。

どんなモデル?

以下の記事によると、1B・3B はエッジやモバイルデバイス向けテキストモデル、11B・90B は小中規模のビジョンモデルだそう。

  • 1B・3B
    • 128K トークンのコンテキスト長をサポート
    • 多言語テキスト生成とツール呼び出し機能に非常に優れている (らしい)
  • 11B・90B
    • マルチモーダルモデル
    • Claude 3 Haiku などと比較して画像理解タスクで優れている (らしい)

動かす

Ollama のコンテナは立ち上がっているものとします
立ち上げ方はこの記事を参照: https://qiita.com/coitate/items/d9035acd3cfcdae96e8b

以下コマンドでモデルを実行。タグを指定しない場合デフォルトで 3B になる。モデルサイズは2GBと軽め。

docker exec -it ollama ollama run llama3.2

後は、他モデルと同様にプロンプトを入力する。

>>> Hello
Hello! How can I assist you today?

非常に簡単ですね。

ということで

Llama3.2 をローカルで実行してみました。1B・3B は Ollama の Library に登録されていたので簡単に実行することができました。11B・90B については Library にないものの Hugging Face には登録されているので、そちらから実行できると思います。性能面については検証できてはいませんが、いろいろと使ってみて確認してみます。
いろんな発表がされて目まぐるしいですが、できるだけキャッチアップしていきたいですね!

10
15
2

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
10
15