こんにちは。sue124です。
5月19日の Azure AI Days の Day1 に出席したので、備忘録的に内容をまとめたいと思います。
世間でどのようにクラウドコンピューティングが活用されているかを知ることができたので、出席してよかったと感じています。
途中で仕事が割り込んできたりして一部聞き逃したところがあり、完全でないのはご了承ください。
実施されたSessionは、Microsoftの以下のページをご参照ください。
1. 基調講演
概論的な話でした。
ためになりそうな話が多くありそうでしたが、早速仕事が割り込んできて、あまり聞けず。
『ながら』で聞いていたので正確じゃないかもしれませんが、松尾先生の「DXは既存の業務のデジタル化だけでなく、そもそもを「デジタルありき」で考えるべき」や「判断を下すトップがリテラシーを身につけて、社内のイノベーションの芽を育てられるようにするべき」というようなお話が印象に残りました。
2. Francfrancの事例紹介(ノーコード AI で実現する DX - 顧客理解が事業を成長させる -)
Azure上のAutoMLやDesignerの機能を活用することで、データ分析の専門家不在の状態でもデータ分析を半内製化できた、という事例の紹介でした。
上記の2つの機能はGUIが整っているので、専門家じゃなくても扱いやすい、というのがメリットですね。
自社ポイントサービスで、これから上位ステージに上がりそうな潜在的な「上位顧客」を見つけ出すことに成功したそうです。
この発表と同じ内容が以下のサイトにまとまっていたので、詳細が気になる方はこちらをご覧ください。
ここにある通り、「データに基づいた施策を打つために必要な人材がいない」状態から、「Azure Machine Learning の Automated Machine Learning(自動機械学習)機能によって、コードを記述せずとも 95% の確率で 40 万人から上位顧客会員を当てるモデルを作ることができた」この取り組みは、多くの企業の参考になるのではないかと感じました。
3. メルカリの事例紹介(画像による違反商品検知 on Azure ML Designer)
ノーコード、ローコードでAIを活用した事例。
Azure上のDesignerの機能から、PytorchのDenseNetのモデルに「違反商品かどうか」を学習させて、「違反の可能性が高い場合は、人の目でのチェックに回す」かどうかを判断してくれるシステムを作ったそうです。
これ、真面目に自分でコードを書いて実装しようとすると、下記のリンクの内容を理解しないといけないわけですが、
AzurenoDesignerの機能を使えば、マウスだけで実装することができてしまいます。
下記のgifは厳密には「Pytorch DenseNet」のものではないですが、下記のような画面でと書かれた箱を「Pytorch DenseNet」ドラック&ドロップしてきて、データセットを示す箱と線でつなぐだけで使うことができます。
(gifは以下のサイトから引用)
上記のようにしてトレーニングしたモデルで、新たに出品されたモノが違反商品かどうかをバッチで判定して、「違反の可能性が高い」ものがあった場合はSlackに通知が上がって人の目で確認するんだそうです。
最後は不完全な部分を運用でカバーしている事例ですが、Designerで実装した画像分類モデルが実用に耐えらることを示す良い事例だと思います。
4. 丹青社の事例紹介(point 0 参画企業の共創を促進するコグニティブサーチを活用したナレッジマイニングソリューション)
仕事の割り込みであまり聞けず。
今まで検索しづらかった文字がアウトライン化されている画像や資料を、Azureの画像認識等を使って文字を認識して検索可能にし、ナレッジ共有できるようにしたお話だったか?
話を聞けた方がいれば、詳細教えていただけるとありがたいです。
5. カルビーの事例紹介(カルビーのデジタルマーケティングを支える Azure Cognitive Services)
「自社の懸賞応募で送られてくるデータを元にマーケティングしたいが、懸賞応募がハガキに応募券を貼って送るスタイルだったので抜本的に変えました」というお話。
色々検討して、下記リンクのようにパッケージを折ったものを写真に撮ってポイントを貯める形式にしたそうです。
この話のいいところは、「製品の制約を満たしつつ、既に世の中でサービスとしてリリースされているものを活用して保守にかかる手間を抑えつつ、データの収集を行うプラットホームの構築ができた」という点です。
スライドにあったシステム構成図はPaaSで構成されており、保守コストが低そうなものでした。
システムの細かいところとしては、食べ終わったあとのパッケージを折りたたんだ時に写真に映る位置に製造番号が出てくるように印刷しておいて、Custom Vision等を使って製造番号を読み取る仕組みにしているそうです。
上記のようなシステムでデータを集められるようになり、色々マーケティングの施策を打てるようになったそうです。
6. エイベックス・デジタルの事例(Cognitive Services を活用した感情の可視化とリアルタイム演出の可能性)
エイベックスの事例は大きく分けて2つの案件に分けられます。
6−1. 観客の表情からの感情リアルタイム分析
下記リンクにあるAzure Cognitive Services の Face の「感情認識」の機能を活用して、観客の感情のリアルタイム分析をできるようになったそうです。
アーティストが「次で最後の曲です」と言った時に悲しみの感情を示す値が一瞬上がるのを捉えられるレベルでの解析が可能なようです。
調べてみると3年前にはできていたようで、こちらの記事にまとまっていました。
6-2. AIが解析した観客の感情から即興で演出を変える「HUMANOID DJ」
2つ目が「HUMANOID DJ」です。
1つ目の感情リアルタイム分析を土台にして、観客の反応を見ながら演出をその場応じてで変えてくれるサービスです。
HUMANOID DJは、Azure Cognitive Servicesがリアルタイムで分析した感情データを元にDJコントローラ(人間のDJも使うソフト)を制御したり、Azure IoT Hubを介して投影する色を変化させたりしているとのことです。
本事例は、以下のサイトにもまとまっていました。
この事例は、AIを活用することで今までできなかったことを実現できた「まさにDX」と言える事例ですね。
7. 富士フイルムソフトウエアの事例(自社 SaaS サービスへの Azure Cognitive Services の活用事例)
最後のこの案件の時に仕事が入ってきて、ほぼ丸々聞き逃した形です。
あまりちゃんと視聴できなかったのでおぼろげなのですが、おそらく以下の事例の紹介のようです。
Azure Cognitive Servicesを使って写真の判別をできるサービスだそうで、例えばプロ野球で球団職員が撮った選手の写真に「誰が写ってるか」の仕分けの援助をやっているそうです。
ただ、Azure Cognitive Servicesの顔での人の判別は、正面を向いていないと精度が悪いので、カメラを向いていることがないプレー中の写真の仕分けに手こずっているとのこと。
顔だけでなく画像全体で判別させようとすると、背景が邪魔をしてうまくいかないという、画像解析あるあるの壁にぶつかっているようです。
技術的には、ピクセル単位で「どこからどこまでが人か?」の判別をかませれば技術的には解決するでしょう。
8. まとめ
ざっくりとではありますが、Azure AI Days Day 1 で紹介された事例をまとめてきました。
Microsoft Azure はノーコード、ローコードでAIを活用する基盤が整っているので、専門家がいなくてもAIを活用できた事例が多く出てきたのが印象的でした。
データサイエンティストが今ほど必要とされない日も近いかもしれません(汗
お読みいただき、ありがとうございました。