はじめに
Jupyter NotebookでローカルPCのGPUを使ってみたいなぁ・・・せっかくワークステーション持ってるんだし。
というのが今回のモチベーション。
やったこと
とにかくやったことを順番に解説していきます。
①Anacondaで仮想環境を構築
スタートメニューからAnaconda Navigatorを起動。
任意の名前を入力(今回は、"local_GPU"とした。)して、Createボタンをクリック。
②CUDA toolkitをインストール
下記のサイトから最新のインストーラをダウンロードします。
https://developer.nvidia.com/cuda-toolkit-archive
ダウンロードした実行ファイルを実行してインストーラを起動。
③cuDNNをインストール
下記のサイトから最新のものをウンロードします。
https://developer.nvidia.com/rdp/cudnn-archive
・アカウント登録していない場合
パスワードを入力してアカウントを作成する画面が表示されますので、画面に従ってアカウント登録をします。
認証後、インストーラを選択してダウンロードします。
今回は、"Download cuDNN v8.6.0 (October 3rd, 2022), for CUDA 11.x"を選択しました。
ZIPファイルでダウンロードされるので、解凍します。
(ちなみに解凍した中身はこんな感じです。)
次に、CUDA toolkitをインストールしたディレクトリ(C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0)に解凍したファイルをすべてコピーします。
④zlibをインストール
下記のサイトを開き、ZLIB.DLLを右クリック→名前を付けてリンク先を保存をクリック。
https://docs.nvidia.com/deeplearning/cudnn/install-guide/index.html#install-zlib-windows
ZIPファイルでダウンロードされるので、解凍します。
(ちなみに解凍した中身はこんな感じです。)
zlib123dllx64\dll_x64のzlibwapi.dllをCUDA toolkitをインストールしたディレクトリ(C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.0\bin)にコピーします。
⑤Tensorflow-gpuをインストール
Anaconda Navigatorより、先ほど作成した仮想環境(local_GPU)からTerminalを開きます。
下記のコマンドを実行します。
pip install tensorflow-gpu==2.6.0
インストールが完了したら、下記のコマンドを実行します。
>python
>>> from tensorflow.python.client import device_lib
>>> device_lib.list_local_devices()
実行結果がこんな感じになっていればOKです。
↑↑device_type:GPUってのが表示されればOKですね。
⑥Jupyter Notebookに仮想環境を追記
仮想環境(local_GPU)のTerminal上で下記のコマンドを実行します。
pip install ipykernel
インストールが完了したら、さらに下記のコマンドを実行します。
xxxxxの部分は仮想環境名(今回の場合は"local_GPU")に置き換えてください。
ipython kernel install --user --name=xxxxx
以上!
おわりに
上から順番にやっていけば環境構築できるようにまとめたつもりです。
私が実践したときはたくさんのエラーと出会い、いろんなサイトを調べながら行ったり来たりで大変でした・・・。
みなさんの一助となれば幸いです!