0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

今更ローカルLLMを導入してみる

Posted at

はじめに

AOAI使ってるけど個人利用するには高いからいろんな遊びするためにローカルLLMを入れます。
導入までなので手順という手順も無いですが備忘録として・・・

環境

  • Ubuntu 24.04.2 LTS

導入

Ollamaインストール

インストールスクリプトを持ってきて実行します。

curl -L https://ollama.ai/install.sh | bash

image.png

バージョン確認コマンドを打って表示されたら完了

ollama --version

image.png

モデルインストール

試しにphi-4をインストールしてみます。

ollama pull phi4

image.png

successと表示されたら完了です。

モデル実行

ollama run phi4

入力コンソールに入力すると回答帰ってきます。
image.png

/byeで終了
image.png

おわり

とりあえずローカルLLMの導入はできました。
今後はメインPCからAPI経由で叩いたり、NASのファイルを対象にローカルRAG作ったりとかしてみようと思います。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?