話題のDeepSeek
ブラウザ版とAndroid版のを普段から使ってきていたが,
なんせ中国の会社なので突然サービス終了したりするかもっと思ったので(根拠ない),
ローカルで動かしてみたかった.
自分の環境は 独立GPUなし i5-1340p(AVX2命令セット対応)16GB RAM
LM studioをインストール.
まずは,LM studioをインストール.いろんな
Locall LLMが動かせるやつです.
適当なモデルを選んでダウンロード
”Download and run DeepSeek R1 Distill (Qwen 7B)”
をクリックして,LM studioで開くだけ
(これはCPUなしでも動く軽めのモデルです)
ダウンロードが完了したら
Load Modelってのをクリック
もしも以下のようなエラーが起きたら
RuntimesってとこからCPU llama.cpp (Windows)をインストールしましょう
いざ会話開始
Chatメニューに行って
モデルを選んで新しいChatを始めましょう
できました
ネットなしでも動くとちょっと感動ですね.