LoginSignup
2
3

VSCodeの拡張機能Continueを使ってOllamaを試してみた

Last updated at Posted at 2024-04-29

はじめに

この記事では、VSCodeの拡張機能「Continue」を用いて、ローカルで動作する大規模言語モデルOllamaを試してみます。開発者や技術者が自分のPC上で直接LLMを操作する方法に焦点を当てています。
image.png

Continueとは

「Continue」はコーディング支援を提供するオープンソースのVSCode拡張機能です。このツールを使って、VSCode内から直接Ollamaのようなモデルにアクセスし、コードの自動生成や修正を行うことができます。

Ollamaとは

Ollamaは、LLama3やLLava、vicunaやPhiなどのオープンに公開されているモデルを手元のPCやサーバーで動かすことの出来るツールです。

前提条件

  • Visual Studio Codeのインストールされていること
  • OSはWindowsであること
  • OllamaはWindows版のインストーラを使用した

導入手順

Ollamaのインストール

  1. OllmanのWindows用のインストーラをダウンロードします。
    image.png

  2. "Download for Windows (Preview)"と表示されている場所をクリックします。

  3. ダウンロードしたEXEファイルを実行します。

  4. インストールが開始されます。

Ollamaの設定

  1. コマンドをcmdで実行して、Ollamaに使用したいモデルファイルをローカルシステムにダウンロードします。モデルをダウンロードするまで時間がかかります。
    例: ollama pull mistral

Continueのインストール

VSCodeの拡張機能タブから「Continue」を検索し、インストールします。

ContinueにOllamaを追加する

VsCodeのContinueアイコンをクリックして画面をひらきます。
image.png

左下の+のボタンをクリックして、Ollamaを追加します。
image.png

ProviederのなかからOllamaを選択します。
image.png

Autodetectを選択します。細かい設定をしたい場合は、Advanceの設定など変更する必要がありそうです。
image.png

image.png

モデルの選択画面からollamaで使えるモデルが選択できるようになる。例えば、llama3を選択する。
image.png

使用例とデモ

  • チャットからカレーの作り方を聞いてみると・・・。日本語が微妙かな・・・
    image.png

  • ファイルを指定して、それについて質問してみると・・。
    image.png
    英語はまじってるが、ファイルの内容から抽出している

  • htmlのコードの説明をかいてみると・・・
    image.png

image.png

まとめ

ローカルでLLMを使用する利点と、Continue拡張機能を通じてVSCodeでOllamaを効率的に活用する方法について試してみました。

感想

  • 外部のGPUつきでOllamaで高精度なモデルをうごかして、接続して連携して動かすほうが、現段階では使えるかな。
  • 使用するモデルによっては日本語はやめて、英語でやりとりするなど工夫が必要かも・・。
2
3
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
3