LoginSignup
29
21

More than 5 years have passed since last update.

ゼロから作るディープラーニング(物理)

Last updated at Posted at 2019-01-14

本記事の概要

ぱそこん初心者が自作PCを組み立てUbuntuを入れ、PyTorch+CUDAでMNISTするまでの軌跡です。
主に自分が詰まった部分についてまとめた内容です。間違っている部分や、より良い部分があればぜひ教えていただきたいです。
2019/01/14時点での情報となります。

著者の知識レベル

  • PCをつくるのははじめて。普段は会社でも自宅でもMacを使っている。
  • 所謂データ分析を仕事にしており、普段はSQL、Python、Tableauとかで仕事している。
  • 前職ではRandomForestとかLightGBMを使った機械学習システムを構築・運用したりしてた。
  • 業務上サーバの運用のためにLinuxをいじいじしたりshを書いたりするが、大したことはできない。lsはできる。
  • 最近、ゼロから作るディープラーニングを読んでディープラーニングで遊びたくなり、自前のMacBook Airに絶望したがAWSとかGCPのGPUインスタンスはずっと使おうと思ったら高いし、Google Colaboratoryは重いファイルのuploadが重くて取り回しずらそうだった。そこで、オンプレでGPUマシン持てば実質無料で遊べちまうんだでは?と思い立ち作ることにした。

1. PCに必要な部品を揃える

何もわからないが、PyTorchでCUDAを使うには謎の半導体メーカーnVIDIAのGPUが必要らしい。色々ぐぐると最近は GeForce GTX10XX(1060~1080Ti)でやってる人が多そうだったので、それが欲しいという気持ちを胸に秋葉原に向かった。
そこで、ツクモの店員さんと相談しつつ以下のパーツを揃えた。

種別 製品名
PCケース Thermaltake Versa H26 Black
CPU intel Corei7 8700
CPUクーラー 虎徹MarkⅡ
GPU nVIDIA GeForce RTX-2070
メモリ crucial DDR4 16GB×2
SSD crucial MX500 500GB 2.5inch
電源 Seasonic FOCUS 750W
マザーボード ASUS TUF H370-PRO GAMING(Wi-Fi)

ちなみに、モニタ・キーボード・マウスは既に持っていたものを流用したため新規購入はなし。(のはずだった)
GTXではなくRTXにしたのは、なんか店員さんにコスパを考えたらRTXのがいいんじゃない?って言われたので素直に従った結果です。
また、自分の部屋のルータと机の位置的に有線LANを敷くのは厳しかったので無線LANが入ってるマザボになった。後付けのやつでも良かったんだけど、結局マザボに入ってるやつのほうが安くなった。
IMG_2571.JPG

2. PCを組み立てる

ここは、各製品の説明書を見ながら色々ググりながらやればそこまで苦労しなかった(5時間くらいかかったが)のであまり書くことがない。インターネットは便利だ。
ただ、配線はなんか難しかった。何がSATAケーブルなのかとか見てもよくわかんないよね。結局は、だれにでも分かるように挿すピンの数が6個とか8個とか9個とかバラバラになってるのでそれを目安に挿していった。
なんやかんやで無事起動に成功。


3. Ubuntuを入れる

新しい方がええやろということで、Ubuntu 18.04 LTS を入れる。LiveUSBからいれた。
MacでのLiveUSBのつくりかたはこの記事を参照した。
LiveUSBを刺してから起動して、BIOS画面で色々触ってたら、Ubuntuが立ち上がったのでInstallっぽいやつをダブルクリックして色々勧めていく。詳細はググってほしい
ただ、ネットには古い情報も多く残っており、「バグが出るからやるな!」って書いてあることはとっくに修正済だったりするのであまり神経質にやらなくていいと思う。
30, 40分くらいかかった気がするけど、サードパーティのソフトウェアを入れるかどうかで大きく時間は変わる気がした。

4. セットアップ・準備

4.1. nVIDIAのドライバを入れる

なんか解像度がモニタとあってなくて、なんやこれと調べてたら、どうやらnVIDIAのドライバが必要らしいということがわかった。
ここでめちゃめちゃ詰まった。ググってもあんま情報出てこないしで困った。
公式サイトのドライバを指示どおりダウンロードしてインストールしようとしても全然うまくいかなくて、色々ゴチャゴチャやってたら無限ループが起き出してどうしようもなくなったので一旦Ubuntuを入れ直した。
ここで、Blutoothキーボードしか持ってなくてBIOSに入れずAmazonで安い有線キーボードをポチるなどして、時間がかかってしまった。
最終的に、自分の場合は正解はこの記事だった。build-essential が必要とか公式に書いてなくない?なんにせよこれでなんとかドライバのインストールには成功した。
バージョンは下記のとおり。

バージョン: 410.93
リリース日: 2019.1.3
オペレーティングシステム: Linux 64-bit
言語: Japanese
ファイルサイズ: 102.29 MB

この時点で、なぜかCUDA10.0もはいったぽくて、良かった。


4.3. 諸々のアップデート

このサイトがわかりやすくてよかった。
僕は最初の方のsudo apt updatesudo apt upgrade -yでパッケージのアップグレードと言語設定のとこだけやった。
そうするとなぜかnVIDIAドライバが再びダメになってしまった。どうやら sudo apt updateしたあとドライバがダメになる現象があるらしい。
ただ、これはドライバをもっかいsudo ./hoge.runすると治ったので即解決した。
その他色々やった気がするが、重要なことではない。(たぶん)

4.2. Python環境整備

とりあえずAnacondaPyTorch
Anacondaはダウンロードしたあと bash Anacondahogehoge.shしてsource .bashrcすればおk。
途中でいろいろ出てくるのはちゃんと読んでyes/no判断すれば大丈夫。
pytorchはインストールかなりかんたんなので大丈夫だった。
conda install pytorch torchvision cuda100 -c pytorch するだけ。

5. MNISTの実行

あくまで今回はちゃんとGPUが使えるかの確認なので、MNISTを適当なネットワークでやってみた。
ソースコードはほぼPyTorchのチュートリアル。GPUを使う部分だけ抜き出すと、下記みたいになる。
ソース全文はGitHubにNotebookをあげておいたのでそちらを参照してください。
ソース全文

net = Net()
net = net.to(device)
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

start = time.time()
for epoch in range(2):  # loop over the dataset multiple times

    running_loss = 0.0
    for i, data in enumerate(trainloader, 0):
        # get the inputs
        inputs, labels = data
        inputs, labels = inputs.to(device), labels.to(device)

        # zero the parameter gradients
        optimizer.zero_grad()

        # forward + backward + optimize
        outputs = net(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()

        # print statistics
        running_loss += loss.item()
        if i % 100 == 0:
            print('[%d, %5d] loss: %.3f' %
                  (epoch + 1, i + 1, running_loss / 100))
            running_loss = 0.0

print(f'Finished Training. Elapsed TIme is {time.time() - start}')

net.to(device)と、inputs, labels = inputs.to(device), labels.to(device)が、PyTorchでGPU使いたいときに必要なやつ。
deviceはPyTorchのTutorialにしたがい device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')で作っている。
思った以上にかんたんでよかった。
処理速度としては、CPUの場合150.4秒かかっていた計算がGPUだと5.9秒になった。すごい。

おわりに

これで、色々自由に遊べるGPU環境が手に入ったのでよかった。
現状認識している課題として、キー配置問題がある。
UbuntuのSuperコマンドが嫌なのでCtrlと入れ替えたことで概ね満足なんだが、普段Macだと左Commandで日本語、右Commandで英語、ってやってるのが再現できなくて結構めんどくさい。誰かこれをUbuntuで再現する方法教えてください。
まあJupyter Notebook立ち上げでMacからアクセスする使い方が中心になりそうだからそこまで気にしてない。。。今は試しにUbuntuローカルで記事を書いてみたけど、やっぱ日本語英語切り替えがネックだなあ。
あとWi-Fiが遅い。MacやiPhoneだと調子良いと下り300Mbpsくらい出るんだけどこれはだいたい50-60Mbpsくらい。なのでパッケージのインストールとかgit cloneとかやたら時間かかるのが気になる。改善したい。これも誰かに助けてほしい。

本記事のような情報は、すぐ陳腐化してしまうことも多いけど、ディープラーニングのためにGPUマシンつくりたい!ってなった方の参考になれば幸いです。
ありがとうございました。

余談

買ったケースがクリアケースで、且つマザボもケースファンも光るタイプだったので「THE・オタク」みたいになってしまった。好き。
IMG_2579.JPG

29
21
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
29
21