3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

[備忘録] VSCode + GitHub Copilot で Ollama クラウドモデルを試してみた

Last updated at Posted at 2025-10-20

はじめに

image.png

この記事では、VSCode + GitHub Copilot拡張でOllamaのローカル・クラウドモデルを統合利用する方法を紹介します。GPUなし環境でも大規模モデルが使える点が特徴です。

検証環境

  • OS: Windows 11
  • VSCode: 1.105.1
  • GitHub Copilot拡張: 1.1372.0
  • Ollama: v0.12.5(クラウドモデル対応版)
  • 使用モデル例:
    • gpt-oss:120b-cloud
    • qwen3-vl:235b-cloud

2025年10月中旬時点の情報であり、画面構成や仕様は今後変更される可能性があります。

VSCodeとの連携設定手順

Ollamaインストール&クラウドログイン後、以下の手順で設定:

1. モデル管理画面を開く

VSCodeのCopilotのチャット画面のモデルのところで「モデル管理」を開く

image.png

2. プロバイダーとしてOllamaを選択

image.png

プロバイダー一覧から「Ollama」を選択

選択可能なプロバイダー:

  • Copilot
  • Azure
  • Anthropic
  • xAI
  • Ollama ← これを選択
  • OpenAI
  • Google
  • Groq
  • OpenRouter

3. 使用するモデルを選択

image.png

Ollamaで利用可能なモデル一覧から使いたいモデルにチェックを入れる:

  • qwen3-coder:480b-cloud
  • gpt-oss:120b-cloud
  • qwen3-vl:235b-cloud
  • Tanuki (7shi/tanuki-dpo-v1.0:latest)
  • gemma3:4b

など、ローカル版やクラウド版もモデルから選択する。
Ollamaのクラウドモデルを利用するには、Ollama公式サイトで自分のアカウントにサインインする必要があります。
あらかじめollamaのUIでためしてみたモデルが一覧にでてきました。

4. 設定完了

image.png

ポイント: クラウド版(-cloudサフィックス)ならローカルGPUなしでも大規模モデルが利用可能。設定後は補完・チャットが自動的にOllama経由に切り替わる。

実際の使用感

コード補完での動作

  • llama3.2: ローカル実行で軽快な動作
  • gpt-oss:120b-cloud: 文脈理解が深く、コメント生成や関数説明が自然
  • qwen3-vl:235b-cloud: 画像入力対応(マルチモーダル補完)

クラウドモデルの応答速度は速く、VSCode上で違和感なく使用可能。GPUなし端末でもストレスフリーな点が特に便利。

Copilot Chatでの利用

Chat内でOllamaモデルを指定して動作確認してみました。ChatGPTライクな自然対話でコードレビューが可能。クラウドモデル指定により、より高精度な生成・説明が得られた。

例1: コーディング以外の相談

gpt-ossにカレーのレシピについて相談した例。技術以外の質問にも柔軟に対応できます。

image.png

例2: ワークスペースの新規作成

/newコマンドでプロジェクト構造を自動生成。フレームワークの選択やファイル構成の提案も可能。
image.png

image.png

例3: マルチモーダル解析

qwen3-vl:235b-cloudで画像をアップロードし、内容を解析。UIのモックアップやダイアグラムの説明などに活用できます。
image.png

主な利点

Ollama Cloudはレスポンスが速く安定しており、VSCodeとの統合も自然で追加プラグインを必要としません。
モデルの切り替えも柔軟に行え、llama3.2からgpt-oss:120b-cloudへの変更もスムーズです。
さらに、GPUを搭載していない環境でも大規模モデルを快適に動作させることができます。

まとめ

image.png

Ollamaは、ローカル・クラウド・VSCode統合という三位一体の形へと進化し、より自然に開発環境へ溶け込む生成AIプラットフォームへと成熟した。
GitHub Copilotとの連携により開発効率は大幅に向上し、さらにCopilotの標準モデルで使用量上限に達した際に、Ollamaへ切り替えて継続利用したり、使用量をセーブできる柔軟性も備えている。
また、GPUを持たない端末でも大規模モデルを活用できるようになったことで、より多くの開発者が高性能なAI支援を日常のワークフローに取り入れられるようになっている。

前回のUI試用から一歩進み、今回は実際の開発フローに組み込める生成AIプラットフォームとしての実用性を確認できた。
ユースケースや目的に応じてモデルを柔軟に切り替えて試せる点も魅力であり、個人的な検証や実験としてクラウドで試してみるのもおすすめだ。用途に合うモデルが見つかれば、ローカル環境に構築して日常的に活用していくのも良いだろう。

所感

image.png

VSCode+GitHub CopilotでもOllamaやクラウドモデルを試せるようになり、より便利になりました。
さまざまなツールや環境と組み合わせて使えるよう進化しており、自分の実験や開発スタイルに合わせて試し、便利なものは積極的に取り入れていくのが良いと感じました。
こうした考え方は他の分野にも応用できそうですし、普段から使い慣れたVSCode上で動かせるのは操作効率の面でも魅力的です。

まずは自分の環境で試しながら、実際の開発・業務にどう生かせるか探ってみようと思いました。

参考リンク

3
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
3
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?