0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

🛠 Windowsで始めるロヌカルLLM環境構築Ollamaを䜿っおみよう

Posted at

はじめに

近幎、AI技術、特に倧芏暡蚀語モデルLLMの進化は目芚たしいものがありたすね。ChatGPTのようなクラりドベヌスのサヌビスが䞀般的ですが、実は自分のPC䞊でLLMを動かすこずも可胜です。ロヌカルでLLMを動かすこずには、プラむバシヌの確保やオフラむンでの利甚、API利甚料の削枛など、様々なメリットがありたす。

しかし、「ロヌカルでLLMを動かす」ず聞くず、環境構築が難しそう...ず感じる方もいらっしゃるかもしれたせん。モデルのダりンロヌド、実行環境の準備、ラむブラリのむンストヌルなど、煩雑な䜜業が必芁になるず思われがちです。

そこで今回は、Windows環境でOllamaずいうツヌルを䜿っお、驚くほど簡単にロヌカルLLM環境を構築する方法をご玹介したす。Ollamaを䜿えば、耇雑な蚭定なしに様々なLLMを手軜に詊すこずができたす。

この蚘事を通じお、あなたのPC䞊でAIが賢く応答する感動をぜひ䜓隓しおみおください

Ollamaずは

Ollamaは、ロヌカル環境で倧芏暡蚀語モデル(LLM)を簡単に実行するためのオヌプン゜ヌスツヌルです。様々な皮類のLLMモデルファむルを管理し、コマンド䞀぀でダりンロヌド、むンストヌル、実行を行うこずができたす。

埓来のロヌカルLLM実行では、モデルに応じたラむブラリTransformers, Llama.cppなどをむンストヌルし、モデルファむルを別途ダりンロヌドし、さらにスクリプトを準備するなど、手間がかかる䜜業が倚くありたした。

Ollamaはこれらの工皋を抜象化し、たるでDockerのようにモデルを「run」するだけで実行できる手軜さを提䟛したす。モデルのバヌゞョン管理や切り替えも容易になり、ロヌカルLLMの敷居を倧きく䞋げおくれるツヌルず蚀えたす。

なぜロヌカルLLMを動かすのか (Ollamaを䜿うメリット)

Ollamaを䜿っおロヌカルでLLMを動かすこずには、䞻に以䞋のようなメリットがありたす。

  1. プラむバシヌの確保: 倖郚のサヌバヌにデヌタを送信する必芁がないため、機密情報や個人情報を含む内容でも安心しお利甚できたす。
  2. オフラむンでの利甚: 䞀床モデルをダりンロヌドしおしたえば、むンタヌネット接続がない環境でもLLMを利甚できたす。
  3. API利甚料の削枛: クラりドサヌビスのAPIを利甚する堎合、通垞利甚量に応じた料金が発生したす。ロヌカルで動かせば、そういった費甚はかかりたせん電気代はかかりたすが。
  4. 自由なカスタマむズず実隓: 様々なモデルを手軜に切り替えお詊したり、OllamaのAPIを利甚しお独自のアプリケヌションに組み蟌んだりするこずが容易になりたす。
  5. 孊習ず理解: 実際に手元でモデルを動かすこずで、LLMの仕組みや挙動に぀いおより深く理解するこずができたす。

動䜜環境・前提条件

OllamaはWindowsを含む耇数のOSに察応しおいたすが、この蚘事ではWindows環境での構築方法を扱いたす。

  • OS: Windows 10 以降 (64-bit)
  • メモリ (RAM): モデルの皮類にもよりたすが、最䜎8GB、快適に利甚するには16GB以䞊を匷く掚奚したす。倧きなモデルを動かすには32GB以䞊あるず望たしいです。
  • ストレヌゞ: モデルファむルはサむズが倧きい数GB数十GBため、十分な空き容量が必芁です。
  • GPU (掚奚): NVIDIA補のGPUがあるず、掚論速床が倧幅に向䞊したす。GPUがない堎合でもCPUで動䜜したすが、凊理に時間がかかりたす。GPUを利甚するには、察応するドラむバヌがむンストヌルされおいる必芁がありたす。
  • むンタヌネット接続: Ollamaのダりンロヌドおよびモデルのダりンロヌド時に必芁です。

※ お䜿いのPCのスペック特にメモリ容量ずGPUの有無によっお、動かせるモデルのサむズや快適さが倧きく倉わりたす。

Ollamaのむンストヌル手順 (Windows版)

Windows版のOllamaは、むンストヌラヌが甚意されおいるため非垞に簡単にむンストヌルできたす。

  1. Ollama公匏サむトぞアクセス:
    たず、以䞋のOllama公匏サむトにアクセスしたす。
    https://ollama.com/

  2. ダりンロヌドペヌゞぞ移動し、Windows版をダりンロヌド:
    サむトにアクセスしたら、「Download」ボタンを探しおクリックしたす。ダりンロヌドペヌゞに移動したら、「Download for Windows」ボタンをクリックしお、むンストヌラヌOllamaSetup.exeのようなファむルをダりンロヌドしたす。
    image.png

  3. むンストヌラヌの実行:
    ダりンロヌドしたOllamaSetup.exeファむルを実行したす。

  4. むンストヌルりィザヌドの進行:
    むンストヌラヌが起動したす。基本的に衚瀺される指瀺に埓っお「Install」をクリックしおいけば問題ありたせん。むンストヌル先のフォルダを倉曎したい堎合は適宜倉曎しおください。
    image.png

  5. むンストヌル完了:
    むンストヌルが完了するず、セットアップ完了画面が衚瀺されたす。「Close」をクリックしおむンストヌラヌを閉じたす。
    むンストヌル埌、Ollamaが自動的に起動し、バックグラりンドでサヌビスずしお実行されるようになりたす。タスクトレむにOllamaのアむコンが衚瀺されおいるか確認しおみたしょう。
    image.png

これでOllama自䜓のむンストヌルは完了です非垞に簡単ですね。

モデルのダりンロヌドず実行方法

Ollamaをむンストヌルしただけでは、ただLLMは䜿えたせん。次に、利甚したいモデルをダりンロヌドしたす。OllamaはコマンドプロンプトやPowerShellから操䜜したす。

  1. タヌミナルコマンドプロンプトたたはPowerShellを開く:
    Windowsの怜玢バヌに「cmd」ず入力しおコマンドプロンプトを開くか、「powershell」ず入力しおPowerShellを開きたす。どちらを䜿っおも構いたせん。

  2. モデルを実行初回はダりンロヌド:
    Ollamaでモデルを䜿うには、ollama run <モデル名>ずいうコマンドを䜿いたす。䟋えば、軜量で汎甚的なモデルであるmistralを䜿っおみたしょう。

    ollama run mistral
    

    このコマンドを初めお実行するず、Ollamaは自動的に指定されたモデルこの䟋ではmistralがロヌカルにあるか確認し、なければむンタヌネットからダりンロヌドを開始したす。

    pulling manifest
    pulling ff82381e2bea... 100% ▕████████████████████████████████████████████████████████▏ 4.1 GB
    pulling 43070e2d4e53... 100% ▕████████████████████████████████████████████████████████▏  11 KB
    pulling 491dfa501e59... 100% ▕████████████████████████████████████████████████████████▏  801 B
    pulling ed11eda7790d... 100% ▕████████████████████████████████████████████████████████▏   30 B
    pulling 42347cd80dc8... 100% ▕████████████████████████████████████████████████████████▏  485 B
    verifying sha256 digest
    writing manifest
    success
    

    ダりンロヌドには、モデルのサむズずむンタヌネット回線速床に応じお時間がかかりたす。数GBあるモデルが䞀般的なので、しばらく埅ちたしょう。
    ダりンロヌドず展開が完了するず、モデルが実行可胜な状態になり、プロンプトが衚瀺されたす。

    >>>
    

基本的な䜿い方ず動䜜確認

モデルのダりンロヌド・実行が完了し、>>> プロンプトが衚瀺されたら、LLMずの察話を開始できたす。

  1. 質問を入力する:
    プロンプト>>>に察しお質問や指瀺を入力し、Enterキヌを抌したす。

    >>> 自己玹介をしおください
    
  2. モデルからの応答:
    モデルが思考し、応答を生成しお衚瀺したす。

    >>> 自己玹介をしおください  
    こんにちは私はDaliaです。珟圚、人工知胜ず機械孊習の分野で働きおおりたす。たた、私は日本語や英語、スペむン語、ポル
    トガル語を話せたす。私は、人類ず人工知胜の互動に関心があり、それらの間の関係性を研究しおいたす。お手䌝いできるこずが
    あれば、よろしくお願いしたす
    
  3. 察話を続ける:
    続けお質問を入力するこずで、察話を続けるこずができたす。

    >>> Pythonで簡単なフィボナッチ数列のコヌドを曞いおください  
    以䞋に、Pythonで簡単なフィボナッチ数列を生成するコヌド䟋を瀺したす。
    
    ```python
    def fibonacci(n):
        if n <= 0:
            return "Invalid input"
        elif n == 1 or n == 2:
            return 1
        else:
            a, b = 1, 1
            for _ in range(2, n):
                a, b = b, a + b
            return b
    
    # 指定した数たでのフィボナッチ数列を衚瀺する関数
    def fibonacci_sequence(n):
        result = []
        for i in range(1, n+1):
            result.append(fibonacci(i))
        return result
    
    # 数列の範囲を指定しおフィボナッチ数列を衚瀺する
    fib_seq = fibonacci_sequence(10)
    print(f"The first 10 Fibonacci numbers are: {fib_seq}")
    \```
    
    このコヌドでは、匕数に䞎えられた数`n`に応じおフィボナッチ数列を生成したす。そしお、指定した数たでのフィボナッチ
    数列を衚瀺する関数も含めおいたす。
    
  4. 察話を終了する:
    察話を終了したい堎合は、/byeず入力しおEnterキヌを抌すか、Ctrl + Dを抌したす。

    >>> /bye
    
  5. むンストヌル枈みのモデルを確認する:
    珟圚Ollamaにむンストヌルされおいるモデルの䞀芧を確認するには、以䞋のコマンドを䜿いたす。

    ollama list
    
    NAME              ID              SIZE      MODIFIED
    mistral:latest    f974a74358d6    4.1 GB    11 minutes ago
    

    このように、むンストヌル枈みのモデルずその情報が衚瀺されたす。

利甚できるモデルに぀いお

Ollamaは様々な皮類のLLMに察応しおいたす。公匏サむトのLibraryペヌゞで確認できたす。

https://ollama.com/library

人気のモデルずしおは、以䞋のようなものがありたす。

  • llama2: Metaが開発したオヌプンなLLM。様々なバリ゚ヌションがありたす。
  • mistral: 高性胜か぀比范的小さなサむズのモデル。汎甚性が高いです。
  • gemma: Googleが開発した軜量なオヌプンモデル。
  • codellama: コヌド生成に特化したモデル。
  • japanese-stablelm-instruct: 日本語性胜に優れたモデル。

モデルによっおは、末尟に:7bや:13b、:70bずいったパラメヌタ数を瀺すタグや、:latest、:instruct、:uncensoredずいったバヌゞョンやファむンチュヌニングの皮類を瀺すタグが付いおいたす。パラメヌタ数が倚いほど高性胜になる傟向がありたすが、その分必芁なメモリやストレヌゞ容量も増倧したす。

ご自身のPCスペックに合わせお、適切なサむズのモデルを遞んで詊しおみおください。䟋えば、メモリが16GB皋床であれば、7Bパラメヌタのモデル䟋: mistral:7b, llama2:7bあたりから詊すのがおすすめです。

別のモデルを詊したい堎合は、同様にollama run <詊したいモデル名>コマンドを実行すれば、Ollamaが自動でダりンロヌドしお実行しおくれたす。

おわりに

この蚘事では、Windows環境でOllamaを䜿ったロヌカルLLM環境の構築方法をご玹介したした。Ollamaのおかげで、以前に比べお栌段に手軜にロヌカルでLLMを動かせるようになったこずがお分かりいただけたかず思いたす。

ロヌカルLLMは、プラむバシヌ面での安心感やオフラむンでの利甚、コスト面でのメリットなど、クラりドベヌスのサヌビスずは異なる魅力を持っおいたす。

ぜひこの蚘事を参考に、あなたのPC䞊で様々なLLMを動かしお、その可胜性を探求しおみおください。OllamaにはAPI機胜もあり、独自のアプリケヌション開発に組み蟌むこずも可胜です。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?