人気のあるHugging Faceの大規模言語モデル(LLM)とその環境構築方法
はじめに
この記事では、2024年6月時点で、Hugging Faceにて人気のある大規模言語モデル(LLM)を調査してみて、それぞれのモデルの特徴や得意分野、さらにそれらを利用するために必要な環境についてまとめてみました。
人気のある大規模言語モデル(LLM)
まずは人気のある大規模言語モデル(LLM)でどんなものがあるか見てみましょう。
1. miqu-1-70b-sf
- 特徴: 65Bパラメータを持ち、最新のテキスト生成に特化しています。
- 得意: 高度なテキスト生成。
2. Nyxene-v2-11B
- 特徴: 11Bパラメータで、精度と流暢さが高い。
- 得意: 詩やスクリプト、メール、レターなどの生成。
3. ShiningValiant
- 特徴: 70Bパラメータで、クリエイティブなコンテンツ生成に適しています。
- 得意: 物語や詩、音楽作品などの生成。
4. MiniChat-1.5-3B
- 特徴: 小型で効率的な推論速度を提供し、3Bパラメータ。
- 得意: 会話型AI、カスタマーサービス、バーチャルアシスタント。
5. Una Xaberius 34B v1Beta
- 特徴: 34Bパラメータで、多様なプロンプトに対応。
- 得意: カスタマーサービスやバーチャルアシスタント。
6. DeepSeek LLM 67B Base
- 特徴: 67Bパラメータを持ち、コード生成やバグ修正に優れています。
- 得意: コード生成、コード補完、バグ修正。
7. Marcoroni-7B-v3
- 特徴: 7Bパラメータで、多言語対応の生成モデル。
- 得意: 高精度な機械翻訳。
8. TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16
- 特徴: 34BパラメータとMoE(Mixture of Experts)アーキテクチャを採用。
- 得意: 高度なテキスト生成。
9. Pearl-34B-ties
- 特徴: 30Bパラメータを持ち、多様なタスクに対応可能。
- 得意: 多用途対応。
10. ShiningValiant
- 特徴: 70Bパラメータで、多様なクリエイティブコンテンツを生成。
- 得意: 物語、詩、音楽作品の生成。
大規模言語モデル(LLM)を使用するための環境構築
次に、大規模言語モデル(LLM)を利用するためにはどのような環境が必要なのかまとめてみました。
共通の準備手順
-
Pythonのインストール: 最新のPythonバージョンをインストールします。
sudo apt update sudo apt install python3 python3-pip
-
仮想環境の設定:
python3 -m venv llm_env source llm_env/bin/activate
-
Hugging Face Transformersのインストール:
pip install transformers
-
GPUドライバとCUDAのインストール(必要に応じて):
- NVIDIA GPUを使用する場合、適切なドライバとCUDAツールキットをインストールします。
各モデルに必要な環境
miqu-1-70b-sf
- 環境: 強力なGPU(例:NVIDIA A100、V100)、大量のメモリ(最低64GBのRAM推奨)。
- ツール: PyTorchまたはTensorFlowをサポートするディープラーニングフレームワーク。
-
インストール:
pip install torch transformers
Nyxene-v2-11B
- 環境: 高性能GPU(例:NVIDIA A100、V100)、32GB以上のメモリ。
- ツール: PyTorchまたはTensorFlow。
-
インストール:
pip install torch transformers
ShiningValiant
- 環境: 大規模なデータセンタークラスのGPU(例:NVIDIA A100)、64GB以上のRAM。
- ツール: PyTorch。
-
インストール:
pip install torch transformers
MiniChat-1.5-3B
- 環境: ミッドレンジのGPU(例:NVIDIA T4、RTX 3090)、16GB以上のメモリ。
- ツール: PyTorch。
-
インストール:
pip install torch transformers
Una Xaberius 34B v1Beta
- 環境: 高性能GPU(例:NVIDIA A100)、64GB以上のメモリ。
- ツール: PyTorchまたはTensorFlow。
-
インストール:
pip install torch transformers
DeepSeek LLM 67B Base
- 環境: 非常に強力なGPU(例:NVIDIA A100)、128GB以上のメモリ。
- ツール: PyTorchまたはTensorFlow。
-
インストール:
pip install torch transformers
Marcoroni-7B-v3
- 環境: 高性能GPU(例:NVIDIA T4、RTX 3090)、32GB以上のメモリ。
- ツール: PyTorchまたはTensorFlow。
-
インストール:
pip install torch transformers
TomGrc_FusionNet_34Bx2_MoE_v0.1_DPO_f16
- 環境: データセンタークラスのGPU(例:NVIDIA A100)、128GB以上のメモリ。
- ツール: PyTorch。
-
インストール:
pip install torch transformers
Pearl-34B-ties
- 環境: 高性能GPU(例:NVIDIA A100)、64GB以上のメモリ。
- ツール: PyTorch。
-
インストール:
pip install torch transformers
モデルのロードと使用例
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "モデル名" # 使用したいモデル名を指定
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# テキスト生成の例
input_text = "ここに入力テキストを入力します"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(inputs["input_ids"])
generated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(generated_text)
まとめ
この記事では、2024年6月時点で人気のあるHugging Faceの大規模言語モデル(LLM)について、それぞれのモデルの特徴や得意分野と、それらを利用するために必要な環境について解説してみました。それぞれモデルによって得意不得意があり、ある分野の特定のタスクに対して高いパフォーマンスを発揮してくれるようですので、ユーザーのニーズに合わせてそれぞれのLLMモデルを選択することで、効率的に作業を進めることができるでしょう。
詳しい情報やモデルの使用例は以下のリンクから確認できます: