Qiita Teams that are logged in
You are not logged in to any team

Log in to Qiita Team
Community
OrganizationEventAdvent CalendarQiitadon (β)
Service
Qiita JobsQiita ZineQiita Blog
0
Help us understand the problem. What are the problem?

More than 1 year has passed since last update.

@TsJazz27Sumin

de:code 2019(Day 1):参加報告レポート

de:code 2019(Day 1):参加報告レポート

自分が技術的なところで気になったポイントについて以下記載していきます。
各セッションの正確な概要等は、公式サイトでご確認ください。

基調講演(9:30 - 12:00)

平野社長が登場して阿修羅像の話から始まりました。
Microsoftが奈良大学と協力して進めているプロジェクトで仏像の表情分析になります。
例として感情や年齢の数値を軽く見せながら、事例紹介をしていました。
観点がおもしろかったので印象に残っています。

こちらのサイトにてそのプロジェクトの成果が体験できるようです。

その他、技術的なところで印象的なものをピックアップすると、以下が「そんなこともできるようになってるんだ!」感があって個人的に印象的でした。

ToyotaのHoloLensを使った自動車整備改革

HoloLensについては、TOYOTAの事例を見ると今まで紙にしろWebにしろ「文章を読んで人間が手順を理解する」という世界から、MRで実物と重ね合わせながら手順を確認する。そういった飛躍的な体験の変化が起きており、UXとして新しさを感じています。

「Smart Store」リファレンスアーキテクチャーの提供

Smart Storeについては、後述のセッションのところで記載します。

Microsoft365のメールやカレンダー

メールやカレンダーの連携については、デモで説明されていたケースは、メールの内容に基づいてスケジュール候補をレコメンドするといった内容です。ケースとしては、スケジュール確認のメールに対する返信になります。

今まであれば、メールを見たあと、スケジュールアプリを開いて対象の日を探して、空いている時間を探して、となっていたところ、デモを見る限りだいぶシームレスに一連の行為をできるようになったようです。

仕組み的には、メールの内容を見たユーザーが次に取る動作を予測して、先回りして情報を提供する、というところになると思います。ここらへんテキスト解析とかoffice365ユーザーの操作ログ解析とか、そういった積み重ねの上に成り立っていると思われます。

TeamsのChatとWordの連携

ChatとWordの連携という部分だと、Word内に含まれる表をChatにそのまま貼り付ける。そこまでであれば、あまり驚きはないのですが、その表の編集状態をリアルタイムでミラーリングさせる様子をデモしていたので、今までないユースケースに意外性がありました。

AtlassianのConfluence等で編集状態をミラーリングして、自分以外のユーザに見せることが出来るのは、体験していましたが、WordとChatという別々のアプリケーションで同じようなことが出来るのは、Microsoftならではだと思います。

office365上は同じオブジェクトとして扱っているか、それともオブジェクトとしては別だけど状態を同期させているのか。詳しい仕組みはわかりませんが、今までない体験となっています。

Teamsのライブ翻訳

デモでは、9画面で9言語の翻訳をほぼリアルタイムでライブ翻訳させる様子を見せていました。例えば、
日本語で「今日はいい天気ですね。」と打ったら、別の人の画面では「The weather is good today, is not it.」と英語にライブ翻訳されて見えるというものです。

精度のほどは試してみないとわかりませんが、テキストベースであれば、同時通訳を人がやらなくても機械で補えてしまう可能性を感じました。例えば、チャットベースの会話であれば、英語が分からない日本人と日本語が分からないアメリカ人が一緒に働くことが出来る、そんな可能性も感じます。

マイクロソフト リサーチのAI / 自然言語処理研究最前線(12:40 - 13:30)

Microsoft Research Asiaの方が広く全般的にAI / 自然言語処理研究の現在の成果について発表されていました。

スポーツニュースを自動生成する。特定の絵のテイストに合わせて、画像を加工してくれるStyle Transferであったり、AIが音楽や詩を作成する。基調講演でも出てきましたが、AIであるりんなが歌う。そういった一般の人でも分かりやすいAIの事例に触れるほか、例文を見せながら形態素解析の構造についても簡単に説明をしていました。

parityという言葉が使われていましたが、部分的ではあるものの、画像認識、音声認識、多くのAIの分野で人間と同等(=parity)のレベル、ものによっては以上のレベルまで進化している様子が伺えました。個人的に、興味を引いたのは、単にQに対するAを返すのではなく、Qを発した意図を読み取って応答を返す仕組みです。

例えば、「今日の天気は?」とAIに質問した時に単に「晴れです。」と返すのではなく、(天気のことを気にしているのだからどこかに出かけるのかもしれない。)と推論し、「どこかに出かけるのですか?」と返すようなことです。

ここまで来ると、だいぶ意図を読み取りながら会話する人間に近い状態になる気がして、コミュニケーションの分野でのAIの可能性を感じます。

激変するリアル店舗~日本マイクロソフトが推進する流通業向け施策概要とサーバレスアーキテクチャで実現するSmart Store(13:50 -14:40)

Smart Storeというのは、

AI や IoT など最新のテクノロジーとデータを活用した効率的な店舗運営や、パーソナルかつ快適な顧客体験を提供するマイクロソフトの次世代店舗モデルです。
次世代店舗モデル「Smart Store」をリテールテックジャパン 2019 にて体験展示

Azureを使ったサーバレスのリファレンスアーキテクチャに関する説明もありましたが、印象に残ったのは、バナナの話です。バナナの話は、小売における画像認識活用の一例として説明がされていました。バナナの補充率を%で表し、なるべく消費者の購買意欲を削がないように100%に近い状態を維持することを意図したものです。

例えば、充分にバナナが並んでいる状態と1-2束しかない状態だと、後者は、消費者にとっては売れ残りに見えるため、バナナを買うのをためらってしまう。結果、機会損失につながっているという話です。

小売としては、この機会損失を防ぎたいので、品物の充足率を可視化して補充のタイミングを知らせてもらう、といったソリューション事案のようです。人間の行動分析があった上で存在する課題に対して、カメラと画像認識の技術を使って対応しているあたりが良いと思いました。

"Everyday AI"時代の人工知能使いこなし ~ Azure Cognitive Servicesを効果的に利用するための基礎知識(15:10 - 16:00)

資料は現在こちらに掲載されています。基本的にMicrosoft Azure Cognitive Servicesを網羅的に紹介していたセッションです。まだ英語しか対応していなくてPreview版ということですが、Form Recognizerが印象に残りました。今、例えばWebページから情報を取得してこようとすると、スクレイピングをすることになります。

HTMLをパースして各ノードの要素や属性を頼りに必要な情報を抜いてくる。そういった部分をプログラミングする必要があると思います。それがForm Recognizerを使えば、構造化されたフォームの情報が各要素ごとに、ほぼノンコーディング取得できることになりそうです。

画像やPDFに含まれる文字列を抜き出す仕組みは、GCPのVison APIなどすでに各種クラウドサービスでも展開されていますが、構造化された情報として取得できるという点では、一つ先に行っているように思います。

Azure IoT Technology の過去、現在、未来 ~ 事例を交えてご紹介(16:40 - 17:30)

過去、現在、未来とあるので、簡単に今までの歴史を振り返ったあと実例紹介がいくつかされました。

日本だと、一つは、豊田自動織機による IoT を活用したスマートファクトリープロジェクト、もう一つは平塚波浪等観測データです。前者は工場内、後者は海上にセンシングデバイスを設置してデータを取得・計測して活用する内容です。

その他、海外の事例もいくつか挙げられていましたが、Digital Twinに関する話が最後に出てきて印象に残りました。

デジタルツインとは、工場や製品などに関わる物理世界の出来事を、そっくりそのままデジタル上にリアルタイムに再現するという意味です。実際に製造する工場や出荷する製品を、システム上にあたかも双子のように現実世界を模したシミュレーション空間を構築し、現実の工場の制御と管理を容易にする手法です。
Digital Twin(デジタルツイン)

例に上がった動画を見るに、ビル内に設置された各種センシングデバイスによっては、ビルの状態をデジタル化し、例えば、緊急時の避難の際にはどういった状況になるかをシュミレーションできる。ビルの現在状況把握、未来予測をDigital Twinによっては、より正確に把握できる。そういったコンセプトだと思います。

激変するリアル店舗~現場に落ちるリテール AI事例と Azure Databricks から始めるリテールAI入門~(17:50 - 18:40)

リテールAI研究会の今村さんの講演です。成果は、こちらの記事に記載されているので印象に残った部分を以下記載します。

AIを活用にするにしても高度なことをいきなりやろうとするのではなくて、すぐに実践できる手法からやってみる。その例として協調フィルタリングを挙げていました。これは、実際に今村さんが失敗した経験を踏まえてのことだそうです。そして、適用するにしても部分的にAIを導入して、人手でやる部分を残しながら、部分的に改善することも勧めていました。

やはりAIを活用してもらう側に対して、モチベーションを維持してもらうには、敷居をなるべく低くし、売上につながるところを見せないと活用してもらえない。そういった経験を踏まえてのお話でした。

小売業界の特徴として、商品の回転が速い、データが集まりやすい、実験の効果が出やすい、といった特徴を挙げられていたので、必ずしも他の業界でも適用できるかはわかりません。ただ、小さくても成果を挙げつつ、実践を繰り返し、PDCAのサイクルを回していく手法は、AI活用に限らず、おススメされる話だと思います。

大物をいきなり狙うのではなく、小物でもいいから成功体験を得られるように進めていく。失敗談を踏まえての身のある話でした。

Why not register and get more from Qiita?
  1. We will deliver articles that match you
    By following users and tags, you can catch up information on technical fields that you are interested in as a whole
  2. you can read useful information later efficiently
    By "stocking" the articles you like, you can search right away
0
Help us understand the problem. What are the problem?