こちらでそれなりに学習できたのですが、結果は散々だったので、GoogleのAutoML Visionと比較することにしました。
それでも見分けられなかったら、もうこのドラマの佐藤健は亀梨和也ということで納得します(爆)
なお、AutoML Visionの使い方は、きっと良い説明がどこかにあると思うので、そちらを見てください。
データセットの設定
今までと同じ画像をデータセットとして設定します。
ローカルな学習では、それぞれ90枚づつ設定し、そのうちの1割(9枚)を評価に使っていましたが、今回は90枚全部トレーニングに使います。
学習
本来はそれぞれ100枚以上画像を用意するのが望ましいのですが、90枚で学習を行います。
評価
もうちょっといい値が出ることを期待したのですが、イマイチな感じです。
識別
いよいよ肝心の、某ドラマの画像を使った識別結果です。
こちらもローカルで使用した画像と同じものを使用します。
1枚1枚載せるのも大変なので、結果を表で記述します。
(期待値は、TakeruSatoが1.0、KazuyaKamenashiが0.0)
FileName | TakeruSato | KazuyaKamenashi |
---|---|---|
image01.jpg | 0.636 | 0.529 |
image02.jpg | 0.102 | 0.899 |
image03.jpg | 0.440 | 0.592 |
image04.jpg | 0.122 | 0.828 |
image05.jpg | 0.657 | 0.441 |
image06.jpg | 0.410 | 0.553 |
image07.jpg | 0.113 | 0.894 |
image08.jpg | 0.396 | 0.693 |
image09.jpg | 0.654 | 0.292 |
image10.jpg | 0.244 | 0.598 |
image11.jpg | 0.860 | 0.261 |
image12.jpg | 0.083 | 0.740 |
※ここでAutoML Visionがエラーに(涙) |
ほ~ら、Google先生も間違えてるし!
※ガッツリお金をかけて学習すれば、もっと賢くなる可能性はあります ( ̄ー ̄)ニヤリ
おまけ
そういえばAutoML Visionのネットワークモデルって何なんだろう?
Inception-v3だったりして?!
(AdvancedモードはNASNetとのこと➡️中の人曰く『今は違うかもよ?!』)
余談
どうやら今までのAIの傾向だと、佐藤健が変顔をすると亀梨和也になるらしい(笑)