センサー/ウェアラブルデバイス開発の情報収集を目的として
6月12日に、パシフィコ横浜で開催された画像センシング展2014に行ってきました。
http://www.adcom-media.co.jp/iss/
とりあえず一通りブースを回ってみましたが、出展内容は
・画像解析によるロボットのピッキング支援
・画像判別によるライン不具合チェック
・3Dカメラ
・顔認識技術
等を組み込んだ製品紹介が多く、特に製造、医療に関連しそうなものばかりでした。
ハードそのものに関わる内容が多く、うーん…畑が違ったかもしれません…
そんな中、アイデア次第ではなかなか面白そうな技術も。
※今、手元に詳細資料が無いため、後日追記/修正するかもしれません。
・3D空間投影システム
愛知のベンチャー企業3Dragonさんが開発しているプロジェクターで裸眼で立体視を可能とする投影システムです。
文字だけだとイメージ難しいかもしれませんが、スターウォーズなどで見た事あるあれです。
デモ機は10センチほどの像を下から照らした光で映す小型のものでしたが、すでに50センチ規模では作成済みらしい。
さらに、2020年オリンピックに向けて部屋全体の規模でスポーツ中継を可能にできるくらいに発展させたいとのことでした。
・視線を利用したUIシステム
視線をモニタ前のセンサーバーで感知し座標を測定。画面のアイコンを見つめただけで選択状態となります。
画面上のカーソルを動かすという動作は行わず、見てキーを押すだけで選択させるというものでした。
本製品はカーソル位置の認識だけでしたが、更に瞬き2回で選択とかも可能なら目だけで簡単な操作は可能になりますね。
Kinectでもある程度似たようなことはできそう。
また、後半にはマイクロソフト社によるセミナー「Kinect for Windows update 2014」を聴いてきました。
時間が限られたためか内容はKinectの簡単な動作デモや事例紹介が殆どでしたが、終わりのほうではKinect v2の情報も。
現行とv2の比較について概要をざっくりまとめると、
・センサー個々の性能は良くなっているが、「できること」は一緒
・センサーの方式により一長一短な部分もあり、用途や好みによって使い分けられる
・そのため、現行機も平行して販売は継続される
とのことです。
性能が良くなったという仕様の詳細については外部サイトでもまとめられています。
(こことか→http://www.buildinsider.net/small/kinectv2cpp/01)
なお、気になる日本でのリリース時期について、
「7月中旬~下旬、マイクロソフトのオンラインストアでオープンβが販売開始」とアナウンスされていました。
オフィスでも現行機との比較ができると良いですね。