GitHub Copilot Chat を、自分のローカルで動かしている LLM(例:Llama3 など)に接続する方法についてまとめます。
最初に
Ollamaをセルフホストしている場合(たぶん)tailscaleを使ってアクセスしていると思うので細々した説明は省きます。
すでにtailscaleを導入している場合5分くらいで導入できます。
✅ 用意するもの
🐋 Ollama
ローカルで LLM を動かせるツールです。
以下の手順で準備してください:
- Ollama をローカルマシンにインストール
- Tailscale を使って、外部からアクセスできるようにしておく
✅ 確認コマンド:
curl http://<tailscaleのIP>:11434
これで何かレスポンスが返ってくればOK!
💡 Ollamaのインストール手順やモデルの管理については、他の記事に譲ります。
🧠 GitHub Copilot Chat
VSCodeの拡張機能です。
学生なら無料で使えます。
以下の準備をしてください:
- VSCode に GitHub Copilot Chat をインストール
- GitHub アカウントでログイン
- 通常どおり Copilot Chat が使える状態にしておく
⚙️ VSCode の設定
ローカルLLMと接続するために、以下の設定を VSCode の settings.json
に追加します:
"github.copilot.chat.byok.ollamaEndpoint": "http://100.x.x.x:11434"
Copilotのモデルを指定する
成功していればOllama内のモデルを指定できるようになっています