1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

生成AIAdvent Calendar 2024

Day 13

Llama 3.2をローカル環境(macOS)で実行してみる:完全ガイド

Last updated at Posted at 2024-12-12

はじめに

先日、Meta社から大規模言語モデル(LLM)の最新バージョン「Llama 3.2」が発表されました。このモデルは、文脈理解の向上、多言語対応の強化、推論速度の改善など、前バージョンから大幅にアップデートされています。特に小規模モデルでも高い性能を発揮する点が特徴です。
本記事では、Llama 3.2の3Bモデル(3 Billion パラメータ)をローカル環境で動かす方法を紹介します。記事の中では、セットアップから実行、さらにはトラブルシューティングや応用例までを詳しく解説していきます。


Llama 3.2とは?

Llama 3.2はMeta社が開発した大規模言語モデルシリーズの最新バージョンであり、以下の改善が特徴です:

主な改善点

  1. 文脈理解の向上
    • 長文コンテキストを処理する能力が向上(最大131,072トークンまで対応)。
  2. 多言語対応の強化
    • 日本語やアラビア語、韓国語など、従来サポートが弱かった言語にも対応。
  3. 推論速度の改善
    • 前バージョンに比べて平均25%高速化。

さらに、モデルの軽量化も進み、3Bモデルや1Bモデルなど、ローカル環境でも動かせる選択肢が用意されています。


セットアップの前に:事前準備

必要なツール

本記事では以下のツールを使用します:

  • ollama:LLMをローカルで簡単に実行するためのオープンソースツール
    公式サイト
  • Docker:仮想環境を構築するためのツール

推奨スペック

本記事では、以下の環境を使用しました:

項目 仕様
マシン MacBook Air
CPU Apple M3
メモリ 24GB
OS macOS Sonoma 15.1.1

Dockerを利用するため、Docker Desktopがインストールされ、dockerコマンドが正常に動作している必要があります。

ollamaとは?

ollamaは、ローカル環境で大規模言語モデルを動かすためのオープンソースツールです。Docker上で動作し、GPUにも対応しています。以下の手順でollamaを使ってLlama 3.2をセットアップします。


ollamaを使ったセットアップと実行

ステップ1:Docker環境の確認

Dockerが正しくインストールされているか確認します:

docker --version

バージョン情報が表示されれば準備OKです。

ステップ2:ollamaコンテナの起動

以下のコマンドを実行してollamaのDockerコンテナを起動します:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

各オプションの意味は以下の通りです:

  • -d:バックグラウンド実行
  • -v ollama:/root/.ollama:データ永続化用のボリュームマウント
  • -p 11434:11434:ポートマッピング
  • --name ollama:コンテナ名を「ollama」に設定

補足:GPU環境を使用する場合
ollamaはGPU対応のバージョンも提供しています。詳しい設定方法はollamaのDocker Hubページを参照してください。

ステップ3:Llama 3.2の実行

以下のコマンドでLlama 3.2モデルを起動します:

docker exec -it ollama ollama run llama3.2

デフォルトでは3Bモデルが起動します。1Bモデルを使用したい場合は以下のように指定します:

docker exec -it ollama ollama run llama3.2:1b

動作確認

英語での動作確認

まず英語で質問を投げかけてみます:

>>> what can you do ?

AIが以下のように応答します:

I'm an AI assistant, so I can help with a wide range of tasks and answer questions on various topics. 

日本語での動作確認

次に日本語で動作確認を行います:

>>> あなたは何ができますか?

以下のような回答が得られます:

私は、質問に答えたり、翻訳を行ったり、文章作成をサポートしたりできます。

エラーとトラブルシューティング

よくあるエラーとその対処法

  1. Dockerコンテナが起動しない
    → メモリ不足の可能性。Dockerのリソース設定を増やします。

  2. ポート競合
    → 他のプロセスがポート11434を使用している場合、別のポートを指定してください:

    docker run -d -v ollama:/root/.ollama -p 12345:11434 --name ollama ollama/ollama
    

応用例と拡張案

応用1:ファインチューニング

ローカルデータを使用してLlama 3.2をファインチューニングすることで、特定用途に最適化したモデルを作成できます。

応用2:Web UIの活用

Open WebUIを導入することで、ブラウザ上から直感的にモデルを操作可能です。


今後の展望

Llama 3.2はローカルで動かせるLLMの可能性を広げています。将来的には、より大規模なモデル(11Bや90B)や低スペック環境での動作にも期待が寄せられています。


まとめ

Llama 3.2のセットアップから動作確認、応用例までを紹介しました。ollamaを使用すれば、LLMをローカル環境で簡単に実行可能です。セキュリティを重視した環境でLLMを活用したい方には特におすすめです。

いいねボタンやコメントでフィードバックをお待ちしています!

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?