みんな大好きオライリー本
オライリー本、有名ですよね。
エンジニアであれば少なくとも1回は手に取ったことがあるのではないでしょうか。
以下は20周年記念に発表された今まで出版した全書籍の表紙です。こんだけ並ぶと圧巻ですね。。
https://www.oreilly.co.jp/community/blog/2015/12/oreilly-japan-all-title-covers.html
オライリー本とは学生の頃に初対面しましたが、表紙に書かれている癖のある謎生物のインパクトに圧倒された記憶があります。
試しにGoogle検索で「オライリー 表紙」と調べると、第3候補ワードに「気持ち悪い」があって、失礼ながらもみんな思うことは同じなんだなと笑ってしまいました。
ただ、エンジニアを生業としている今となってはオライリー本は仕事をする上ではなくてはならず、勉強になることがとても多いので大変感謝しています。(大好きオライリー!)
そんな大好きなオライリー本を題材に何かできないかな・・・と思いついたのが今回の内容です。
流行りのAIを使ってオライリー本を仕分ける
エンジニアであれば表紙を見ただけで「あ!オライリー本だ!」と結構すぐに分かると思いますが、一般の人はどうなんだろうか、さらには流行りのAIとやらで分かるか試してみたら面白そうとふと思いました。
オライリーの表紙は結構特徴もあるし、機械学習使えば仕分けることも出来そうと何となく思っていた時にLobeというツールを知りました。
Lobeとは
Microsoftがベータ版として公開している機械学習モデルの作成ツールです。
機械学習に関する難しい前提知識など不要で無料で使えます。
現時点においてLobeで出来ることは**画像分類(Image classification)**で、公式サイトに記載されている例としては、撮影した写真から植物の名前を引き当てたり、写真に写っている人の表情を認識したりするようなことが出来ます。
他社にはなりますが、既に提供されているクラウドサービスで言うと、Google Cloudが提供しているCloud AutoML Visionに似ている印象です。
学習に必要なデータ量が少なく、1ラベルにつき最低限5枚あれば学習出来てしまいます。
まさに、今回のような思い付きを手軽に試すには最適なツールだと言えます。
ということで、早速やってみました。
Lobeを使ってみる
まずは手始めに、犬と猫の画像分類をやってみましょう。
利用するデータ
Kaggleのサイトにちょうどいいデータがあるので使います。膨大なデータ量ですが、実際に後で使うのはこの中のほんの一部のデータだけです。
インストール
LobeはWindowsやMac上で動作するデスクトップアプリケーションなのでインストールが必要です。
インストールが完了したらLobeを開きます。
データ学習
以下のような画面が表示されたら、「New Project」をクリックしてプロジェクトを新規作成します。
右上にある「Import」をクリックすると学習に利用するデータを読み込ませることが出来ます。
大量のデータを読み込む場合は「Dataset」を使ったほうが楽ですが、今回は手軽に試すというコンセプトなので、面倒ですが「Images」を選択して個別に画像を読み込んでみます。
先ほどKaggleからダウンロードしてきたフォルダ(dogs-vs-cats)内にある学習用画像ファイル(train配下)の中から犬、猫それぞれ5枚ずつ読み込んで、犬には「dog」猫には「cat」とラベルを付与します。
ラベルの付与がすべて完了すると自動的に学習(Train)が開始されます。左下に表示される学習の状況を見ると、今回は正解率100%で無事に学習が完了したようです。
モデル呼び出し
学習済みモデルを呼び出してみます。ちゃんと画像分類できるか実際に試してみましょう。
左にあるメニュー一覧から「Use」をクリックして、テストしたい画像をドラッグ&ドロップしてみます。
正しく「dog」と認識されましたね。
念のため、猫の画像でもテストしてみます。
正しく「cat」と認識されました。
Lobeが問題なく使えそうなので、本題のオライリー本を仕分けてみます。
いざオライリー本を仕分ける
利用するデータ
オライリー本の表紙は、オライリー・ジャパンのサイトに掲載されているのでそちらを利用します。
上記の犬vs猫分類のように、オライリー本と対する本は何を利用しようかと悩みましたが、同じ技術書で特徴的な表紙を持つものということで、技術評論社が出版しているWEB+DB PRESS plusシリーズを利用してみます。
データ学習
新規にプロジェクトを作成し、先ほどと同様にそれぞれ5枚ずつラベルを付与して学習させます。
今回も正解率100%で無事に学習が完了しました。
いざ仕分け
学習済みモデルを呼び出して仕分けてみます。
テストはちょっと意地悪して、古典的なオライリーっぽくない、最近のナウい(?)デザインの表紙で試してみます。
まずは1冊目「Real World HTTP」です。
今読んでいますが、幅広くウェブ技術の変遷についてまとめられており読みやすくおススメです。
お!ちゃんと「O'Reilly」と認識されましたね。
追加でもう1つ。
2冊目は「ハンズオンNode.js」です。
Node.jsについて勉強したかったので購入しましたが、表紙がオライリーらしからぬかわいい感じだったので表紙買いしちゃいました。
お!これもちゃんと「O'Reilly」と認識されましたね。
参考までに、WEB+DB PRESS plusシリーズの表紙でも試してみます。
ちゃんと「gihyo」(WEB+DB PRESS plusシリーズ)と認識されています。
プログラムから学習済みモデルを呼び出す
学習済みモデルを手軽に呼び出すのであれば今回のような画像ドラッグ&ドロップが使えますが、他にもTensorflowから呼び出せたり、WebAPIとして呼び出せたりします。
試しにWebAPIとして呼び出してみます。
上記にあるタブから「Export」を選択し、表示された一覧から「Lobe Connect」をクリックします。
すると、以下のようにWebAPIに関する情報が表示されます。
さらに、右上のFormatをクリックすると選択された言語に応じてWebAPIを呼び出せるプログラムが表示されます。表示されたコードをコピペして必要部分を修正すれば動かすことが出来るので、サクッと試すにはすごい便利。試しにPythonからWebAPI経由でモデルを呼び出してみます。
利用するデータは先ほども試したオライリーの「Real World HTTP」です。
import base64
import requests
# Save string of image file path below
img_filepath = "img/http.jpeg"
# Create base64 encoded string
with open(img_filepath, "rb") as f:
image_string = base64.b64encode(f.read()).decode("utf-8")
# Get response from POST request
response = requests.post(
url="http://localhost:38101/v1/predict/be95b4cc-296d-4f79-90b9-611844136458",
json={"image": image_string},
)
data = response.json()
top_prediction = data["predictions"][0]
# Print the top predicted label and its confidence
print("predicted label:\t{}\nconfidence:\t\t{}"
.format(top_prediction["label"], top_prediction["confidence"]))
以下、実行結果です。
predicted label: O'Reilly
confidence: 0.9408095479011536
ちなみにレスポンスはこんな感じで返ってきます。
{
"predictions": [
{
"label": "O'Reilly",
"confidence": 0.9408095479011536
},
{
"label": "gihyo",
"confidence": 0.05919043347239494
}
]
}
まとめ
今回試したのは二値分類で、かつ見分けがつきやすいものだったので実際の利用シーンからは程遠いかも知れませんか、手軽にカスタム画像分類したいならLobeが結構使えそうかなと思いました。もしLobeについてもっと知りたい場合は公式ページなどをご確認ください。
あとオライリー本これからもみんなで読みましょう。
参考ページ