LoginSignup
1
0

LLMのための環境構築_PyTorch導入偏

Last updated at Posted at 2023-10-01

前回からの続きになります。

やりたいこと

  • フレームワークとしてpytorch入れる
  • なんらかのLLMを入れて会話する

PyTorchのインストール

こちらの記事の「PyTorchのDockerイメージのインストール」から開始します。

コマンドプロンプトで wsl と叩くとwsl2から前回インストールしたUbuntuが起動します。

Ubuntu上から、
記載にあるコマンド docker run --gpus all -it --rm --shm-size=8g nvcr.io/nvidia/pytorch:XX.XX-py3 を叩くとインストールが実行されました。
(XX.XX-py3のところに何を入れるかは記事参照のこと)

image.png

ついでにDocker Desktopの方も確認。
imageが追加されていました。今後はこのイメージを実行すれば良さそうです。

image.png

pytorchからGPU認識できているのか確認のため、
Ubuntu上から python コマンドを実行してpython起動します。
(実はpythonをこんな風に起動するのはじめてなのでドキドキ)

image.png

そのあとはimport torch実行してからprint(torch.cuda.is_available())実行。
今回はTrueと出力されたので認識はされていると判断し、続いてprint(torch.cuda.device_count())を実行。
1と出てます。数が合ってるので大丈夫そう。

image.png

今回はここまで。
次回はいよいよLLM導入です。

1
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
0