(基礎調査)Deep Learning は、ビジネス や 産業の現場で どこまで使われているのか? ~ GPU, FPGA の次は、米IBM の Neuromorphic tip / 脳型コンピュータチップ が 次世代 計算基盤 として、必須になるか?

  • 37
    いいね
  • 0
    コメント

( 本記事 目次 )

1.【 業界別 】製品化・サービス展開事例

  • 1-1. 顔認識・人間の動作内容認識
  • 1-2. 自律走行車・無人自動車
  • 1-3. 飲食・小売業、店舗マネジメント、リテール接客業
  • 1-4. SNS・ウェブ検索サービス
  • 1-5. 投資銀行・金融商品トレーディング

2.「ニューロモーフィック・チップ」(Neuromorphic tip / 脳型コンピュータチップ)及び GPU等の Deep Learningハードウェア基盤産業

  • 2-1.Neuromorphic tip (脳型コンピュータチップ)
  • 2-2. GPU

(参考)


1.製品化・サービス展開事例

(1) 顔認識

Microsoft 社 How Old do I Look ?

new_g.PNG

( 以下、上記ウェブページより転載 )

new_h.PNG


Microsoftの「Project Oxford」という中で複数の機械学習APIの公開を始めていました。

この中で、顔認識API(Face APIs)とMicrosoftの「Azure Stream Analytics」などを組み合わせて出来上がった応用事例がhttp://how-old.netです。

巷では、顔写真から年齢を判定するサイトとして話題になりましたがこれも機械学習APIのデモンストレーション。

GoogleやAmazonが既に自社サービス上で動く機械学習サービスを立ち上げたように、Microsoftもクラウドベースの機械学習APIを公開してきたということです。

( Microsoft 社の顔認識 機能 API )Microsoft Project Oxford Face APIs

new_i.PNG

( Face API の デモ )

new_j.PNG


(1)続き 人間の動作内容認識

Google 社 Deep Dream

We haven't designed fully sentient artificial intelligence just yet, but we're steadily teaching computers how to see, read, and understand our world.

Last month, Google engineers showed off their "Deep Dream," software capable of taking an image and ascertaining what was in it by turning it into a nightmare fusion of flesh and tentacles.

The release follows research by scientists from Stanford University, who developed a similar program called NeuralTalk, capable of analyzing images and describing them with eerily accurate sentences.

( 以下、上記ウェブページより転載 )

new_a.PNG

上記 記事によると、Stanford大学 の研究者が、一歩先に NeuralTalk というプログラムを発表していた模様


Google検索で、「Google, Deep Dream, 動作認識」と打つと、Deep Dreamは、クリエイティブ・アートをつくるツールとして取り上げるウェブページが続々みつかる(用途を変えた?)

new_c.PNG

技術的な説明ではないことを踏まえて聞いて欲しいのだが、人工ニューラルネットワークは脳の類似技術と考えることができる。それはニューロンの層とニューロン同士のつながりで構成されている。情報は、ネットワークにニューロン同士のつながりの”重さ(強さ)”として保管される。

下部層(入力に近い層。例えば、目)は抽象度の低い特徴(角、辺、方向など)を保管(認識)し、上部層は抽象度の高い特徴を保管する。これは、人間を含む哺乳類の大脳皮質が情報を保管する仕組みと類似する。

画像をネットワークに入力し、ネットワークがそれを”学習”する(各ニューロンに重みを確立)といった具合に、あるニューラルネットワークが数百万もの画像で”訓練”されたとする。

 それから、そのネットワークに未知の画像(例えば、筆者)を与えると、蓄えられた情報の文脈の中で画像を認識しようとする。

これは、ネットワークに「見たことがあるもの、あるいは知っているものに基づけば、これは何だと思うか?」と尋ねていると考えることができる。これは雲やインクが何かの形に見えてくる現象に似ている。

( 以下、上記ウェブページより転載 )

new_d.PNG

new_e..PNG



Google Inceptionismも同類サービス?

グーグルの研究者チームは2015年6月、画像の分類や並べ替えを行う同社の人工知能(AI)「人工ニューラルネットワーク」に生成させた、「Inceptionism」という画像集を公開した。

グーグルの新しい写真アプリで人の顔や動物を認識するのに用いられている人工ニューラルネットワークは画像を特定できるパターンを見つけるものだが、Inceptionismでは逆に、「知っているパターンに近い何か」が少しでも検出されたら、その部分をフィードバックループで繰り返させていくことで、奇妙な悪夢のような世界を生成させた(実際の例はこちら)。

( 以下、上記ウェブページより転載 )

new_b.PNG


( 参考 )動作認識(例:ジェスチャー認識): Deep Learning 以外のSVM, SOM(自己組織化マップ)を用いた実現方法

ジェスチャは第一段階に過ぎません。

2人は、Flutterで開発しているiPhoneアプリの基本的なデモを見せてくれました。

パソコンの前で手を上げるのは大変なことではありません。
しかし、地下鉄に乗っている時に、電話に何かジェスチャをするのはどうでしょう? かなり恥ずかしいですし、カメラと手の距離が近過ぎて、電話がジェスチャを読み取るのが難しいです。

「モバイル機器では、顔の表情の方が読み取り精度が高いのです」とDalalさんが説明してくれました。
もっと大きな目標は、パソコンに目を付けて、ユーザーを認識できるようにすることです、と付け加えました。そうすれば、ユーザーが机を離れたら、パソコンが自動的に画面をロックできますよね? 携帯電話はユーザーが楽しいのか機嫌が悪いのかわかりますよね?


(2)「自律走行車」・無人自動車

( 以下、上記ウェブページより転載 )

new_f.PNG

NVIDIAの展示コーナーではディープラーニング技術を使った自律運転自動車のシステムなどが注目を集めていた。自動運転車両用に開発されたコンピュータ「DRIVE PX」は、最大で12台の高解像度カメラからの入力信号に対し、最高で1.3ギガピクセル/秒もの処理が行える性能を持ち、ADAS(先進運転支援システム)に必要とされる画像処理を効率良く行う。障害物の検知ができるほか、すれ違う車種を認識するところまで技術開発が進められている。

自動車はスーパーコンピューターを搭載し人工知能で制御する。Nvidiaはラスベガスで開催中のCES 2015で、最新の自動運転技術を発表し、人工知能を採用した制御方式を示した。このシステムを自動車に搭載すると、カメラで捉えたオブジェクトを高精度で把握し、周囲の状況を理解する。Audiはこのシステムの採用を表明し、自動運転技術開発が加速しそうだ。

(中略)

Drive PXはコンピュータービジョンに「Deep Neural Network」を採用した。Deep Neural Networkとは機械学習のアルゴリズムで、脳の構造を模したネットワークで、データから高次の意味を抽出することができる。Deep Neural Networkを自動車に応用すると、単にオブジェクトを認識するだけでなく、置かれた状況を理解することができる。

講演の後半では、NVIDIAの車載用SoC(System On a Chip)搭載車を販売するテスラモーターズ CEOのイーロン・マスク氏が登壇し、フアン氏と自動運転についてのビジョンを議論した。

  • Gigazine (2014/7/29) 「BaiduがAI(人工知能)と自律走行自転車を開発していることが判明、Googleへ対抗か」

    バイドゥでは過去数年のあいだ人工知能関連への投資を進めており、2013年には人間の脳機能を模したニューラルネットワークを用いた画像検索エンジンを発表。さらに2014年5月にはコンピューターサイエンティストのAndrew Ng氏を迎え入れ、シリコンバレーにAI研究所を開設しています。
    スタンフォード大学で教授を務めていたNg氏は、2006年にGoogleのディープラーニング関連プロジェクトであるGoogle Brainを立ち上げたことでも知られている人物で、バイドゥはその技術とノウハウを音声認識、画像認識および自然言語処理の研究に活用するものとみられています。「AIテクノロジーの進歩がインターネットにパワーを与えます」とAI技術の重要性について語るNg氏は、バイドゥのAI研究所は「ディープラーニング分野における未来の英雄となるでしょう」との展望を明らかにし、将来的にはGoogleに対抗する規模に達することを示唆しています。

  • Economic News (2015/4/3) 「中国の百度、自律走行車でグーグルを追撃」

    中国の検索サイト最大手、百度(バイドゥ)が、自律走行車の研究を進めていることが明らかになった。同社創業者でCEOの李彦宏氏が3月10日に北京で、自動車メーカーと協力して研究を進めていると語った。

    百度は13年に、人工知能の研究所を北京に開設、画像認識や音声認識、自然言語解析、機械翻訳などの研究を推進してきた。そして、同社は昨年5月、人工知能の研究所を米カリフォルニア州サニーベールに開設した。百度が同研究所トップに迎えたのが、人工知能研究の第一人者として知られるスタンフォード大学のアンドリュー・ング氏だ。ング氏は、グーグルで「ディープラーニング」(深層学習)チームの立ち上げに関わった。「ディープラーニング」とはコンピュータが人間の脳のように自律的に学習していく仕組み。

  • 日本経済新聞(2013/8/28)「日産、自動運転車20年までに発売 試作車公開」

nikkei.PNG

nissan2.PNG

nissan.PNG

無人自動車・自律走行車 と ディープ・ラーニング

Deep Learningは、自動車周囲の動画像のリアルタイム解析部分(画像認識)に組み込まれる?

以下の記事は、ベイズ理論とリアルタイム位置予測のカルマン・フィルターを中心に無人走行技術を紹介している)

( 以下、上記 Chikamune氏 スライドより一部抜粋して転載 )

1.PNG

2.PNG

3.PNG

4.PNG

5.PNG

6.PNG

7.PNG

8.PNG

9.PNG

10.PNG

11.PNG

12.PNG

13.PNG

無人自動車・自律走行を実現させるためには、ディープ・ラーニングによるリアルタイムでの周囲動画の解析・状況把握だけでなく、SLAM とよばれる「自己位置推定」・「周囲の地図作成」の同時実行を行う解析エンジンが必要不可欠なようだ

自動運転技術などを開発しているZMPは、標識やGPSの情報に頼らずに自車の位置を推定する「SLAM(Simultaneous Localization and Mapping)」技術を使った自動運転の実験を実施したと発表した。実験では、トヨタ「プリウス」をベースにしたロボットカー「RoboCar HV」にレーザーレンジセンサーを両側面に装着し、米国バージニア工科大学で開発した「Grid-based Scan-to-Map Matching SLAM」技術で自車の位置を推定し自動運転した。この実験に使った車両と実験動画を「人とくるまのテクノロジー展2014」(2014年5月21~23日)で公開する。

SLAM(スラム)とは、自己位置推定と環境地図作成を同時に行うことを言う。
正式名称は、Simultaneous Localization and Mapping。
位置の推定やマップ作成にはレーザーレンジスキャナー(測域センサ)、カメラ、エンコーダなどが利用されることが多い。SLAMを行っている代表的なロボットとしては、LGエレクトロニクス社製掃除機のHOM-BOT,Neato 社製の XV11 [1]などが挙げられる。

SLAM(Simultaneously Localization and Mapping)とは

各種センサから取得した情報から、自己位置推定と地図作成とを同時に行う方法。
 周囲の環境形状を把握し、その形状データをもとにロボットの自己位置も推定する。
 自律移動ロボットや海軍の水雷探知UUVに利用される。
 (今回は自律移動ロボットでの利用に関して記述する)

移動ロボットのシステムにSimultaneous Localization And Mapping (SLAM) の技術を組み込むことにはいくつかの利点がある.

一つ目は,自己位置推定に外界センサのデータを利用できることである.カメラや Laser Range Finder(LRF) などの外界センサの測定データは,基本的に周辺環境の地図構築にしか利用することができない.

一方,一般的な自己位置推定の方法ではジャイロやホイールエンコーダなどの内界センサを利用するしかなかった.しかし,SLAMの技術を利用することにより,外界センサから作成した地図情報を自己位置推定に利用することが可能になるのである.

また,内界センサの精度があまり期待できないような環境,例えば,強い磁場が生じて電子方位計が狂ってしまうような環境や,地面が平面でなくホイールオドメトリが使用できない環境などにおいてもSLAMを行い,地図情報を用いることにより,高精度な位置推定が可能になるという利点がある.

SLAM領域でのセンシング技術と、個々の無人自動車がもつセンサーデータをウェブ・クラウド空間に自動アップロードして、無数の無人自動車のセンサデータを集約・インテリジェンス化する技術の先進ベンチャー事業例

zmp.PNG

zmp1.PNG

zmp2.PNG

zmp3.PNG

zmp4.PNG

( この部分の機械学習モデルは、ディープ・ニューラル・ネットではなく、従来の機械学習アルゴリズムのひとつ「SVM」(サポート・ベクター・マシン)を利用しているようだ )

zmp5.PNG

zmp6.PNG

zmp7.PNG

zmp8.PNG

その他、無人自動車に関する技術全般を調査した報告書


(3)飲食・小売業、店舗マネジメント、リテール接客業

ベーカリー「神戸ベル 西神中央店」ほか 複数店舗 にすでに導入済み

  • レジ会計 商品種別・会計個数 瞬時自動 画像識別機能 搭載 POSレジ・システム 「BakeryScan」

(紹介記事)

(以下、上記記事より転載)

pic1.PNG

【 BakeryScan 開発元 】

株式会社ブレイン(本社:兵庫県西脇市)

(BakeryScan 導入店舗(ブレイン社公式ウェブサイトより、一部のみ転載)

  • ドンクnonowa 西国分寺店(東京都国分寺市)
  • ベーカリー研究所 G’ROWN(熊本県熊本市)
  • ラ・サン・ミッシェル 加古川店(ニシカワ食品)(兵庫県加古川市)
  • 石窯パン工房 パン・ド・ミ 稲美店(ニシカワ食品)(兵庫県加古郡稲美町)
  • ラ・サン・ミッシェル 舞子店(ニシカワ食品)(兵庫県神戸市)
  • お菓子のお店 Kazu(兵庫県宝塚市)
  • くり~夢 花田店(兵庫県姫路市)
  • ねやがわパン工房 モモナ(大阪府寝屋川市)

ほか多数 店舗


(来店者)性別年齢推定サービス「ABEJA Demographic」・(店舗内外)ヒートマップ解析サービス「ABEJA Behavior」

(以下、開発元 ABEJA社 公式ウェブサイトより転載)

pic2.PNG

(紹介記事)

株式会社ABEJA(本社東京・岡田陽介社長)が快進撃を続けている。創業わずか2年半という若い企業であるにも関わらず、主力商品のインストアマーケティング技術が人気で、大手小売店などへの導入が続いている。

これまでのリアル店舗のデジタルマーケティングといえば、POSデータを解析する程度のものが中心だった。ところが同社の技術は、店内に設置されたカメラで来店者の年齢層、性別などを推定し、人の流れ、滞留場所を記録、分析する。また在庫データやシフトデータなどと連動させることで、店舗運営の最適化が可能になるという。ネット上のECサイトでは、ユーザーの行動を記録、分析し、最適の広告や商品を提示することが可能だが、同様のことをリアル店舗でもやろうというわけだ。

「棚割りのA/Bテストもできます。どの商品をどの棚に置けば、最も高い売り上げにつながるのかを実際に検証できるわけです」と岡田陽介氏(26)は言う。

使われているのは最新鋭の画像認識技術だ。画像認識技術はDeep Learningと呼ばれる人工知能(AI)分野のブレークスルーのおかげで急速に進化している技術で、私が先月訪問した米スタンフォード大学の人工知能研究所でも集中的に研究していた。同研究所で見せてもらった、カメラから年齢、性別を推定する技術や、人の流れを計測する技術を、ABEJAは既に実用化しているわけだ。(関連記事「人工知能が急に進化し始めた」)

「世界でも実用化している企業は数えるほどしかありません。海外の競合他社は、画像認識に力を入れているところが多いですが、われわれは画像認識だけではなくERPやCRMなどと連携させ、複合的なシステムとして提供している。そこまでしているのは、世界でも弊社だけかもしれませんね」。岡田氏は、自慢するふうでもなく、淡々と語る。

【 「ABEJA Demographic」&「ABEJA Behavior」 開発元 】

株式会社ABEJA (アベジャ) ABEJA Inc.(東京都港区六本木)

ABEJA.PNG

( 導入事例: 大手百貨店「三越伊勢丹」 )

aveja_3.PNG

ABEJA_current.PNG


(4)SNS・ウェブ検索サービス

Microsoft / Baidu(百度)など複数 最大手企業

【 画像 キャプション文字列 自動生成サービス 】

pic4.PNG

google2.PNG

google3.PNG

ms1.PNG

ms2.PNG

ms3.PNG

(以下、IT・SNS 最大手 その他の動向)

Facebook

  • 買収したベンチャー企業

  • Facebook AI Research(Menlo Park, CA, USA) 研究所

(2015/1/17)「Facebookがディープラーニングツールの一部をオープンソース化」
 
ITmediaニュース (2015/1/19)「Facebook、ディープラーニング開発環境「Torch」向けモジュールをオープンソースで公開」

米Facebookは1月16日(現地時間)、機械学習関連のオープンソース開発環境「Torch」向けのオリジナルモジュールをオープンソースで公開したと発表した。GitHubで入手できる。

Facebookの研究機関、Facebook AI Research(FAIR)の研究者でTorchプロジェクトにも参加するソーミス・チンタラ氏によると、これらのモジュールはNVIDIAのcuFFTライブラリ上に構築されており、GPUコンボリューションレイヤーの改善に注力した結果、従来の(公開されている)最速のコードよりパターン認識が23.5倍高速になったという。

Facebookは2013年12月に人工知能研究ラボを立ち上げ、保有する膨大なユーザーデータの解析に取り組んでいる。

(同研究所 研究員名で公開された論文)

Deep Face 顔認識 技術

(記事)

DeepFaceの2つの画像の顔の識別精度は97.25%で、人間(97.53%)とほぼ互角という。従来の顔認識技術より25%精度が上がったとしている。
実験には、公開されている画像データベースやFacebookにアップロードされている4030人の440万点の画像、米GoogleのYouTubeの動画内の顔データを集めたデータベースを利用した。
DeepFaceは画像内の顔から3Dモデリング技術で正面を向いた顔の画像を作り、これを1億2000万以上のパラメータを持つマルチレイヤーのデータにしてニューラルネットワークで共通ポイントを解析する。

DeepFaceはまだ実験段階の技術だが、将来的にはFacebookの自動顔タグ機能などに採用されるのかもしれない。

Facebook が CVPR2014 に投稿しアクセプトされていた顔認証に関する論文 [1] が MIT Technology Review にて紹介されたことで注目を集めています。DeepFace と名付けられた手法で、同社が集めた4030人の顔写真440万枚を用いた大規模学習によってほぼ人間並の人物識別性能を達成しているということで、なかなかキャッチーな話題です。一方、Face++ という顔認証・分類のプラットフォームを展開する Megvii社 がつい先日公開したプレプリント [2] でも DeepFace と同程度の性能を達成しています。今日はこの2つの論文を解説します。


Google

  • 関連 自然言  米Facebookは1月16日(現地時間)、機械学習関連のオープンソース開発環境「Torch」向けのオリジナルモジュールをオープンソースで公開したと発表した。GitHubで入手できる。
    語解析アルゴリズム「word2vec」を検索エンジンに組み込んでいる?

  • 買収したベンチャー企業

    • Deep Mind社

( Googleの猫 )
* Google Official Blog (2012/6/28, "Using large-scale brain simulations for machine learning and A.I."

One of the neurons in the artificial neural network, trained from still frames from unlabeled YouTube videos, learned to detect cats.

( Google + アップロードした画像の自動識別 & キーワード画像検索機能 )

TC.PNG

google.PNG

pic3.PNG

NHK.PNG

Twitter

  • 買収したベンチャー企業
    • Madbits

IBM

  • 買収したベンチャー企業
    • AlchemyAPI

IBMは、AlchemyAPI社 から獲得したDeep Learning 技術をAPIで公開してもいる

a.PNG


Nervana Systems社(米サンディエゴのベンチャー企業)_

Nervana Systems社 ディープラーニング・ツール


(5)投資銀行・金融商品トレーディング

外資系大手 証券会社 各社の動向は、ネット上には表れていない(継続調査中)

論文は多数出ている。


2.「ニューロモーフィック・チップ」(Neuromorphic tip / 脳型コンピュータチップ)及び GPU等の Deep Learningハードウェア基盤産業

(1)Neuromorphic tip (脳型コンピュータチップ)


世界各国で競争が進んでいる「ニューロ・モーフィック・コンピューティング」開発計画

1.(米国)SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics) プロジェクト(高等国防研究計画局)

synapse_darpa1.PNG

synapse_darpa_2.PNG


アメリカだけではない。EUも国際プロジェクトをすでに始動させている。

※ 以下の2つの計画は、EUによる人間の脳メカニズム解明プロジェクト「Human Brain Porject」と提携しているとのこと

2.(EU)BrainScaleS(brain-inspired multiscale computation in neuromorphic hybrid systems)プロジェクト(独 ハイデルベルク大学等)

brainscales.PNG


3.(英国)spiNNaker(spiking neural network architecture)プロジェクト(マンチェスター大学等)

apt1.PNG

paper1.PNG

paper2.PNG


IBM

米国高等国防研究計画局(DARPA)のSyNAPSEプロジェクトに参画

ibm_truenorth_wired.PNG

ibm.PNG

ibm2.PNG

ibm3.PNG

ibm4.PNG

そのIBMが、ノイマン型とは異なる新たな半導体コンピュータの開発を進めている。2014年8月7日には米コーネル大学と共同で、ニューロン(脳神経細胞)の働きを模したニューロモーフィック・チップを開発したと発表した(写真1)注1)。

注1)米国防高等研究計画局(DARPA)が主導する、ニューロン細胞の機能を再現するチップの開発プロジェクト「SyNAPSE(Systems of Neuromorphic Adaptive Plastic Scalable Electronics)」の一環である。

IBMはこのチップに、建物の上から撮影したカラー映像(400×240ピクセル、30フレーム/秒)を入力し、歩行者5人、自転車乗り1人をリアルタイムに追跡することに成功した。この時のチップの消費電力は63mWだった。単純な比較はできないが、GPU(グラフィックス処理プロセッサ)と比べてニューラルネットの1演算当たりの消費電力は10分の1以下だという。

このチップは、半導体プロセッサの中でも最大級といえる54億個のトランジスタを搭載。これらが100万個のニューロン、2億5600万個のシナプス(ニューロン間結合)を備えたニューラルネットワークとして機能をする(写真2)。ニューロン数でいえば昆虫の脳に相当する(人間の脳の1万分の1)。

このチップの最大の特徴は、同社が「TrueNorth」と呼ぶ、非ノイマン型のアーキテクチャを採用した点だ。TrueNorthチップは、一般的なプロセッサとは異なり、メモリーからプログラムを逐一読み込む必要はない。

(中略)

今回IBMが開発したチップは、データ処理の最小単位となるコアを1チップに4096個実装した。それぞれのコアが演算回路、メモリー、コア間通信用のルーターなどを備える。ニューロン間の結合の強さなどのパラメータは、すべてコア内のメモリーに保存し、外部メモリーには出さない。つまり、一般的なコンピュータのプログラムに相当する情報が、コアの中に封じ込められているわけだ。

各コアは、ニューロン256個、シナプス26万2144個の機能を再現する。ニューロンの振る舞いは23のパラメータで調整でき、「単純なニューロンモデルから、極めて複雑なモデルまで再現できる」(リスク氏)。コアはチップ内でメッシュ状に並んでおり、さらにチップ自体をタイル状に並べることで、全体のニューロン数を柔軟に増やすことができる(写真4)。IBMは既に、16個のチップを1枚のボードに並べ、1600万ニューロンと40億シナプスを備えたシステムを試作済みだ。

( 以下、上記 記事より転載 )

ibm_tip_1..PNG

ibm_tip_2.PNG

ニューロモーフィック・チップは1980年代半ばに考案されたが、近年急速に技術開発が進んだ。今や5年、10年先という気の長い話ではなく、米クアルコム(Qualcomm)のような世界的メーカーが今年中には初代製品をリリースするという。

IBMが最近発表した半導体開発計画の一つは、人間の脳の機能を模したニューロコンピュータ(注)である。これによって人工知能の研究がいっそう飛躍することが期待できる。

このコンピューティングの基本エンジンとしてTrueNorthチップがまず作られた。このチップが脳のニューロンとシナプス結合に相当する機能を実現する。一つのTueNorthには64×64個のコアが実装されている。この4096個のコアにニューロンとシナプスが格納されている。各コア内には重み等を記録するメモリーがあり、他のコアへの結合も記憶されている。

これを複数個並べればニューロコンピューティングの第1層ができる。これを多層化すれば、現在機械学習の本命とみられているDeep Learningが直接実装できる訳である。すでにIBMにはCOMPASSというニューラル再現ソフトウエアパッケージがあるので、これを使えば問題をダイレクトに実装できる。


(2)GPU

Nvidia社 (製品) DIGITS DevBox

Deep Learningのソフト開発を容易にする目的でCaffe、Torch、Theanoなどのライブラリが開発されている。これらのライブラリを使用すると一般的な処理手順はライブラリとして用意されているので、一般的なニューラルネットワークの動きや学習の手続きの記述を簡単に行うことができる。

NVIDIAのDIGITS DevBoxという製品には、これらにライブラリと、ディープラーニングを実行させる環境がインストールされている。これらのライブラリやDIGITSはオープンソースであるので、自分でダウンロードしてインストールすることもできるが、DevBoxとして買ってしまえば、インストールの手間が省ける。