AWS
JawsDays
JawsDays2019

JAWS DAYS 2019に行ってきた件(AI/ML系を中心に)

JAWS DAYS 2019に行ってきたので、備忘録です。

IMG_5093.JPG


総評:とにかく盛り上がってた

1900人超来て史上最高の人数だったそう。

あんま写真撮ってないんですが、確かにどのセッションも黒山の人だかり。

お弁当もランチカーも長蛇の列でした。

運営のみなさんお疲れ様です。

スポンサーもいっぱい。

IMG_5094.JPG

うーん、AWSとも仲良くしてるはずの実行委員長所属会社がスポンサーになってないのはなぜだ。


発表の傾向と回ったところ

当日のタイムテーブルはこちら。

https://jawsdays2019.jaws-ug.jp/timetable/

資料のまとめはこちら。

https://qiita.com/hayao_k/items/91c19480948f26b71705

実に11トラック。更に展示/同人誌ブースもあり、非常に盛りだくさん、満漢全席の名前の通りという感じでした。

満漢すぎて食いきれないので、2日に分けてほしいとも思ったくらいですが、まあ2日に分けると大変だろうしなぁ・・・

Serverless、コンテナ、ハイブリッドクラウドといった基盤周りの新しい軸に関するセッションが結構多かった印象。

IoTとかもちらほらありましたね。SORACOMのハンズオンとか楽しそうだった。

私はAI/ML系のセッションを中心に聞いてきました。

以下、気になったセッションをいくつか紹介。


気になったセッション

この3セッションが連続したあたりが、個人的なハイライトでした。

ここに書いてないことも色々と話されていたのですが、気になったところを中心に。


[AI/ML 前半] PythonとSageMakerで始める MLチームのみで完結するAPIの構築事例 GVA TECH 武田さん

https://speakerdeck.com/ababa893/jaws-days-2019-pythontosagemakerteshi-merumltimufalsemitewan-jie-suruapifalsegou-zhu-shi-li


  • ML機能の開発フローは、「分析検証→アルゴリズム開発→学習・モデル変換→APIのデプロイ→プロダクトに反映」


    • プロダクトに反映まで行って初めてユーザ価値が生まれる。なので、そのスピードをなるべく高速化したい。



  • APIとしてデプロイしてプロダクトに反映するところはインフラまわりのスキルが必要。

  • 機械学習の専門家集団であるMLチームは基本的にインフラ周りのスキルはそんなに高くない。彼らにそこをやらせるのはスキルの無駄遣い。

  • 一方、インフラ周りの担当を別途用意すると、MLチームとは文化が違ってわかりあうのが難しい。(MLチームのコードがわんぱくすぎる、とか)


    • コミュニケーションコストが高くなって、結局速くならない。



  • そこで、SageMakerを活用して、MLチームのみで商用環境へのデプロイ可能な状況を作った。

  • 結果、新バージョンのAPIリリースがほぼ1日で対応可能に!


[AI/ML] 機械学習における AWS を用いたマイクロサービスアーキテクチャ ABEJA 中川さん

https://www.slideshare.net/yutanakagawa2/aiml-aws


  • AI/ML業界は技術の進化スピードがえげつない。 

  • だから、ビジネスとしては速攻で最新のモデルを取り入れていきたい。

  • ところが分析系機能のアーキテクチャが完全にモノリスで、1年位モデルいれかえてない・・・とかいう状況に。

  • そこで、モデル部分をマイクロサービスにして、影響範囲を極小化しながら必要なモデルを簡単に差し替えられるようにした。


    • ついでに、モデルのフローも組み換え可能に。



  • これによって、最新の技術を論文で知り、検証用コードを活用して新たなモデルを作り、すぐにプロダクトに組み込みが可能に。


[BigData] AI/MLシステムにおけるビッグデータとの付き合い方 DeNA 鈴木さん


  • AI/ML系の開発をスムーズ・迅速に行うために、3つのロールを設けている。


    • AI研究開発エンジニア - 各分野の専門性を持ってる人。研究のウォッチと活用。

    • データサイエンティスト - Kagglerの人たち。泥臭い系。

    • MLエンジニア - AI技術をサービス上に実装して安定運用を実現するのがミッション。←鈴木さんはここ。



  • MLエンジニアはモデル開発以外の部分は何でもやる。AI研究開発エンジニアやデータサイエンティストは基盤周り弱いので。


    • 機械的なレベルのデータクレンジングとかも全部やってる

    • セキュリティ周りも、普通にやってれば問題が発生しないように整備しておく

    • 野良インスタンスが立たないようにとか、GPUインスタンスのスポットインスタンスを使うとか、そのへんもお手伝い。


      • SageMakerはスポットインスタンス使えなくて高いのもあるし、意外とニーズがなかった。






所感

というわけで、如何に専門性の高い人のスキルを無駄遣いせずに、彼らのアイデアを最短距離でビジネスに落とし込んでいくかというところが一つのキーポイントなのだな、という感じですね。

でも、そこに向けての工夫ややり方、体制は三者三様。専門家がデプロイまで簡単にできるようにしてあげるのか、そこは他の人が見てあげるのか。デプロイの高速化のやり方もそれぞれ。この辺は組織やメンバーにあったやり方をそれぞれ模索するべきなのでしょう。

他にも色々セッションは聞いたんですが、この3つが一番印象に残ったので取り上げてみました。

あといちばん笑ったのは営業セッションだったけどそれはまたどこかで。