前回からの続きになります。
やりたいこと
- フレームワークとしてpytorch入れる
- なんらかのLLMを入れて会話する
PyTorchのインストール
こちらの記事の「PyTorchのDockerイメージのインストール」から開始します。
コマンドプロンプトで wsl
と叩くとwsl2から前回インストールしたUbuntuが起動します。
Ubuntu上から、
記載にあるコマンド docker run --gpus all -it --rm --shm-size=8g nvcr.io/nvidia/pytorch:XX.XX-py3
を叩くとインストールが実行されました。
(XX.XX-py3のところに何を入れるかは記事参照のこと)
ついでにDocker Desktopの方も確認。
imageが追加されていました。今後はこのイメージを実行すれば良さそうです。
pytorchからGPU認識できているのか確認のため、
Ubuntu上から python
コマンドを実行してpython起動します。
(実はpythonをこんな風に起動するのはじめてなのでドキドキ)
そのあとはimport torch
実行してからprint(torch.cuda.is_available())
実行。
今回はTrueと出力されたので認識はされていると判断し、続いてprint(torch.cuda.device_count())
を実行。
1と出てます。数が合ってるので大丈夫そう。
今回はここまで。
次回はいよいよLLM導入です。