0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

GithubCopilotをOllamaで動かした話

Posted at

GitHub Copilot Chat を、自分のローカルで動かしている LLM(例:Llama3 など)に接続する方法についてまとめます。

最初に

Ollamaをセルフホストしている場合(たぶん)tailscaleを使ってアクセスしていると思うので細々した説明は省きます。
すでにtailscaleを導入している場合5分くらいで導入できます。

✅ 用意するもの

🐋 Ollama

ローカルで LLM を動かせるツールです。
以下の手順で準備してください:

  • Ollama をローカルマシンにインストール
  • Tailscale を使って、外部からアクセスできるようにしておく

確認コマンド:
curl http://<tailscaleのIP>:11434
これで何かレスポンスが返ってくればOK!

💡 Ollamaのインストール手順やモデルの管理については、他の記事に譲ります。


🧠 GitHub Copilot Chat

VSCodeの拡張機能です。
学生なら無料で使えます。

以下の準備をしてください:

  • VSCode に GitHub Copilot Chat をインストール
  • GitHub アカウントでログイン
  • 通常どおり Copilot Chat が使える状態にしておく

⚙️ VSCode の設定

ローカルLLMと接続するために、以下の設定を VSCode の settings.json に追加します:

"github.copilot.chat.byok.ollamaEndpoint": "http://100.x.x.x:11434"

image.png

Copilotのモデルを指定する

  • ManageModelsをクリックする
    image.png

  • ollamaを指定する
    image.png

  • ollamaに入っているモデル一覧が表示されるので好きなものを選択する
    image.png

成功していればOllama内のモデルを指定できるようになっています

image.png

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?