44
44

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

Open-interpreter、試してみろ。飛ぶぞ!

Posted at

Open-interpreterとは

ターミナル上でLLMにプロンプトを差し出すと、命令通りにコードを書いて実行してくれるプログラム。

前提条件

  • Anacondaがインストールされている
  • ターミナルの使い方を知っている

インストール

$ conda create -n interpreter python=3.11
$ conda activate interpreter
$ pip install open-interpreter
$ env:FORCE_CMAKE=1; $env:CMAKE_ARGS='-DLLAMA_CUBLAS=on'
$ pip install llama-cpp-python --force-reinstall --upgrade --no-cache-dir -vv

起動

$ interpreter -y

「-y」は、コード実行の承認をスキップするオプション。つけると、勝手にコードを書いて勝手に実行するからちょっとこわい。

選択肢

[?] Parameter count (smaller is faster, larger is more capable): 7B
[?] Quality (lower is faster, higher is more capable): Low | Size: 3.01 GB, RAM usage: 5.51 GB
[?] Use GPU? (Large models might crash on GPU, but will run more quickly) (Y/n): y

基本は、GPUメモリの許容量で決めればいいと思う。Code-Llamaを使う場合のメモリ使用量の目安を表に示す。RTX 3070で7B中くらいは乗るかなといったところ(13B低は落ちた)。

パラメータ数 回答の質 専用GPUメモリ
7B 6GB
7B 7GB
7B 10GB
13B 8GB
13B 11GB
13B 16GB
34B 16GB
34B 23GB
34B 38GB

ちなみに34Bのモデルだと20GBのHD空容量が必要。

実行結果

image.png

44
44
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
44
44

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?