6
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

自治体に向けて機械学習を使って何か提供できないかLobeを使って検証してみました

Last updated at Posted at 2021-12-09

この記事は トラストバンク Advent Calendar 2021 の10日目の記事です。

こんにちは!
トラストバンクのテックリード兼、開発リーダーをさせて頂いている@kazuyaseoです。

昨日はnirastamoさんの「そうだ、TGIFをやろう」でした!
リモート環境下でいかにコミュニケーションを活性化するかは、本当に重要な課題だと思います。
難しいからこそ、これからも一緒にコミュニケーションを活性化させたいと思いました!

自治体にテックの力で何か提供できないかと考えていました

トラストバンクは寄付者向けにふるさとチョイスを提供していまして、
その裏では自治体様が管理ツール(CMS)を利用して情報を更新することで日々ふるさとチョイスは成長しています。

トラストバンクで仕事をしていて良かったなと思える事の一つに
システムを利用していただいている自治体様に対して、エンジニアが直接話を聞ける環境
があると思っています。
「自分の担当しているシステムが役に立っているのか」、「どう利用してもらえているのか」
を直接聞けるのはものづくりをするエンジニアにとってとても大事な時間だと思っています!

今年はCMSの担当をさせて頂いているおかげで多くの自治体様と会話させていただきました。
そんな自治体様との打ち合わせの中に知ったのですが、
日々のふるさと納税業務の中でも**「掲載写真」**の運用に苦労されていると言う話を聞きました。
たくさんの写真から選別をしたり駄目だったら取り直ししたり1回アップした画像を新しいものに差し替えたり
色々と大変との事でした。

その話を聞いた時に、
CMSに写真をアップしたら、自動的に良し悪しを付けてくれたり、どこに掲載すれば良いかアドバイスしてくれたら良いのではないか?
と考えました。
それと同時に
したい気持ちはあるけど、まだ自分自身が機械学習がどこまで出来るのか全く知らないな
と思い、自分の知識の少なさを呪いました。

前置きが長くなりましたが、
今回はふるさとチョイス上に掲載されている写真と去年話題になったLobeを使って
機械学習ではどんな写真の判別が出来るのかを鰻の写真を使って検証し、理解を深めるをやってみようと思います。

今回の検証で機械学習を少しでも自分の頭で理解できたら、来年は自治体様にもオススメできるかも!

検証してみること

検証してみようと思うのは、
自分の撮影したカットされていない鰻の写真を見て、
 「1尾」の鰻と判定できるのか?
 「カット」した鰻と判定されるのか?

を検証してみようと思います。

ちなみに今年寄付して頂いた鰻の写真はコチラ(調理前ですいません。)

パッと見他感じでも「1尾」の写真なのですが、機械学習はこの鰻を「1尾」と判断してくれるのか検証してみようと思います。

①事前準備

自分の手元で機械学習を始めるためには

  • Lobe
  • 学習の元になる写真(複数枚)

の2つがあればOKです。

Lobeはサイトからダウンロードしてインストールするだけですぐに利用できます。

次に学習の元となる写真データですが、今回は以下のページに記載されている鰻の写真を持ってきました。

②学習させる内容とデータの準備

今回はシンプルに鰻の種類を**「1尾」のままで写っている物と「カット」**されているもので2種類に分けてみました。
一見シンプルに見えますが、鰻の写真は「ラッピングされたもの」や「鰻重」や「うな丼」、
「フライパンの上に乗っているもの」から「網の上に乗ってるもの」、しまいには「文字の入ってるもの」など様々なので、
個人的には「本当に判定できるのか?」と疑ってます。

準備は簡単、Lobeはフォルダを分けることで、自動的に分類をしてくれます。
そのため、自分のパソコンの中で以下の様なフォルダ構成を用意し、そのフォルダの中にガシガシ画像ファイルをおいておけばOKです。

unagi
 ├ cut     # ← こっちに「カット」された鰻の写真をガシガシ置く
 └ natural # ← こっちに「1尾」のままの鰻の写真をガシガシ置く

出来上がりイメージ

③Lobeに写真を読み込ませる。

Lobeをインストールして起動すると以下の様な画面が表示されるので「New Project」を選択する。

Projectのトップが表示されるので、データを読み込ませるために右上の「Import」をクリックして、表示されたメニューの中から「Dataset」を選ぶ。(Datasetを選ぶことで、フォルダ単位でインポートされます。)

Import Datasetのポップアップが出たら「Choose Dataset」を選択して、先程準備したunagiフォルダを選択する。

"Label Using Folder Name"のラジオボタンを選択した状態で「Import」をクリック

無事に読み込まれました!

④機械学習の判別できなかったものを確認する

自分が勝手に「1尾」と「カット」でカテゴライズした画像を渡したけど、機械学習も判断に迷うものがあったみたいで、
その画像がどんな画像であるか教えられるのが左メニューのTrainから見ることが出来る。

鰻重に乗っている鰻が「カット」されたものじゃないか???と疑っているが、個人的には1尾だと思う。。。。
ただ、それ以外は「1尾」にカウントされているのが結構凄いなと思いました。

⑤自分の撮った写真を読み込ませてみる。

最後に、自分が今年寄付した鰻の写真をスマホで撮って、学習させたLobeに読み込ませてみようと思います。
Lobeの左メニューから"Use"を選択し、メイン画面に写真をドラッグアンドドロップして、写真をラベリングしてもらいます。

⑥結果

なんと、見事に"natural"と表示、「1尾」であると判定してくれました!!!

⑦結論

長々とお付き合いありがとうございます。
かなりファジーな部分まで判断してくれる事もわかり、
来年度から自治体さんが画像の判定に困っていたら、
「機械学習はどうですか?」と言うお話が少しできそうな気がしました。
また、機械学習に興味があるけど「何が出来るかわからない」と言う人も多いと思いますので、何かの足しになれば幸いです!

明日の記事はTrustbank Advent Calendar 2021のオープニングも努めていただいた、CTOのyamaken66さんです、お願いします!

6
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
6
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?